Wie geht eigentlich Social Media Monitoring?

Mit der Anzahl der Anbieter von Social Media Monitoring-Leistungen steigen auch die Unterschiede hinsichtlich der Ansätze, Verfahren und Technologien kontinuierlich an. Allerdings haben sich Kernprozesse bei vielen Web-Monitoring-Projekten etabliert, die von einer Vielzahl der Anbieter standardmäßig angewendet werden. Im Folgenden soll daher der typische Ablauf eines Social Media Monitoring-Projektes beschrieben werden. Quelle ist die soeben erschienene Social Media Monitoring-Studie.

Zunächst müssen die branchen- und zielgruppenspezifischen Quellen identifiziert und nach Reichweite und Relevanz (zum Beispiel anhand Userintensität, Diskussionsvolumen, Antwortzeiten) bewertet werden. Einige Anbieter haben Algorithmen entwickelt, die die potenzielle Reichweite beziehungsweise Streuwirkung der Quellen berücksichtigen. So werden zum Beispiel bei User Generated Content aus der Anzahl von Nutzern und Kommentaren eigene Metriken entwickelt. Andere versuchen, über Google Pagerank die Anzahl und Relevanzen der Kommentare, Tweets, Followers, 2nd-Order-Followers oder Views zu bestimmen. Auch Artikelvolumen, Reichweite, Suchmaschinen-Auffindbarkeit und Verlinkung werden von einigen Anbietern herangezogen. Es herrschen jedoch unterschiedliche Ansichten über die Dimension der Untersuchung, das heißt, wie viele Quellen einbezogen werden sollten:
1. Beschränkung auf in der Regel zehn bis 20 Quellen, die als relevant gelten
2. 100 bis 300 Quellen nach vorhergehendem Screening
3. Das „Deep Web“ durchforsten, um hypothesenfrei zu screenen

Die Ansichten darüber, welche Anzahl (Dimension) von Quellen einbezogen werden sollten, sind unterschiedlich. Da es oftmals auch eine Kostenfrage ist, sollten Unternehmen projektspezifisch entscheiden, ob das Web mithilfe von a priori definierten Quellen oder quellenunabhängig durchsucht wird. Um die Qualität der Datenerhebung zu erhöhen und wichtige Botschaften nicht zu übersehen, ist es wichtig, auch Audio- und Video-Dateien aufzuspüren. Des Weiteren sollten Stellen im Internet, die nicht mit den bekannten Suchmaschinen wie zum Beispiel Google ersichtlich sind, in Betracht gezogen werden. Wichtig für die Erzielung valider Ergebnisse ist in jedem Fall die permanente Aktualisierung der Quellen. Einige der befragten Anbieter durchforsten zunächst das durch Screening verminderte Universum der Beiträge, um dann zu schauen, welche Quellen diese Inhalte liefern.

Im zweiten Schritt werden alle Suchmaschinen und Webseiten automatisiert nach Keywords und Keyword-Kombinationen überprüft. Statische und dynamische Inhalte wie Bildunterschriften, Blog-Artikel oder Foren-Beiträge werden auf diese Weise extrahiert. Um der Gefahr zu entgehen, eine unvollständige Keyword-Liste zu haben, führen manche Anbieter eine Verlinkung von Postings durch. So können auch solche Beiträge in den „Analyse-Scope“ gelangen, die nicht die festgelegten Keywords enthalten.


Die Ergebnisse der Befragung zeigen, dass erheblicher Aufwand betrieben wird, um aus Quellen die definierten Inhalte zu extrahieren. Die Festlegung von Keywords und Keyword-Kombinationen spielt in der Praxis eine ebenso große Rolle (80 bis 90 Prozent) wie semantische Verfahren, die die Kontextabhängigkeit bzw. Bedeutungszusammenhänge erkennen können (75 Prozent). (Quelle mind)

Die Extraktion ist der neuralgische Punkt einer jeden Analyse. Daher sollte größtmögliche Sorgfalt bei der Zusammenstellung der Keywords und der Definition der Themen-Clouds gelten. Die Kunst besteht darin, Bedeutungszusammenhänge zu erkennen und so den Kreis der relevanten Äußerungen besser zu fassen. Das gelingt jedoch meist nur mit ausgebildeten Computerlinguisten und Sprachwissenschaftlern.
Tipp: Für den Einstieg eignen sich oft die im Search Engine Optimization (SEO) verwendeten oder durch Google Adwords generierten Keywords. Das Social Media Monitoring kann aber auch einen wichtigen Beitrag leisten, um aus Sicht der Zielgruppe relevantere Keywords für SEO und Online-Kampagnen festzulegen.

Nach dem Extrahieren werden alle Ergebnisse zusammengefasst, wobei doppelte Nennungen entfernt werden müssen. Auch irrelevante Inhalte wie zum Beispiel Spam oder Werbung werden bereinigt. Im Anschluss daran werden die Resultate sortiert und sinnvoll gruppiert. Die Datenaufbereitung kann mithilfe von Softwareprogrammen automatisiert erfolgen (nahezu alle Anbieter verfügen dabei über automatisierte Verfahren zur Extraktion von Inhalten) oder manuell, indem Fachleute wie Redakteure oder Marktforscher einbezogen werden. Im letzten Fall ist die Qualifikation beziehungsweise Ausbildung der eingesetzten Personen für die Qualität der Ergebnisse von enormer Bedeutung.

Im letzten Schritt werden die Ergebnisse automatisiert (semantische Textanalysen) und/oder individuell (Sentimentanalysen) bewertet sowie thematisch kategorisiert. Daraus werden Berichte, Zusammenfassungen und Analysen erstellt.

Zu bedenken ist, dass Softwareprogramme zum Beispiel die Ironie einer Kundenbewertung am Kontext nicht erkennen können. Daher ist bei automatisierten Verfahren Vorsicht geboten: Bei einer Studie des britischen Marktforschungsunternehmens Freshminds aus dem Frühjahr 2010, kam heraus, dass nur 30 Prozent der automatisierten Bewertungen richtig waren. Untersucht wurden in diesem Falle sieben führende Social Media Tools. Für Sentiment-Analysen sollte daher ein Anbieter gewählt werden, der die Datenaufbereitung zumindest halb automatisiert durchführt und über qualifiziertes Personal verfügt und die Ergebnisse nachzuarbeiten. Eine entscheidungsrelevante Ergebnispräsentation spielt im Unternehmensalltag eine große Rolle. Nur wenn Manager schnell und unkompliziert über die öffentlich geäußerten Erwartungen an das eigene Unternehmen in Kenntnis gesetzt werden, kann das Social Media Monitoring eine sinnvolle und effiziente Entscheidungshilfe darstellen.

Eine Vielzahl von Anbietern arbeitet mit Reporting-Programmen wie Dashboards oder Cockpits, die Informationen in verdichteter Form visuell darstellen. Dafür spricht unter anderem die zeitnahe, umfassende und übersichtliche Darstellung sowie die Möglichkeit, die Software individuell anpassen und in die eigene IT-Infrastruktur integrieren zu können. Die Befragungsergebnisse bestätigen, dass für die Erstellung von Berichten und Analysen in 90 Prozent der Projekte geschulte Analysten benötigt werden. Nur so lassen sich sinnvolle Zusammenhänge darstellen, Interpretationen vornehmen und Handlungsempfehlungen ableiten. Für diese Aufgaben kommen in der Mehrheit Akademiker zum Einsatz, hin und wieder wird auch auf Partner von Marktforschungsinstituten zurückgegriffen.

> Lesen Sie hier Folge 2: Wie geht eigentlich Social Media Monitoring in der Praxis

Quelle: Praxisleitfaden Social Media Monitoring
Für die Studie von von absatzwirtschaft, marketingIT und Mind Business Consultants sind allein in Deutschland rund 60 Social Media Monitoring-Anbieter identifiziert worden. Insgesamt 44 Institute, Agenturen und Tools-Anbieter im deutschsprachigen Raum hatten im Sommer dieses Jahres online an der Umfrage teilgenommen. Auf dieser Basis konnten die Monitoring-Angebote hinsichtlich Leistungsumfang, Technologie, Methoden-Know-how sowie Kosten erfasst und ausgewertet werden.