Laut Wikipedia ermöglicht die Analyse von Big Data eine „bessere, schnellere Marktforschung“. Und das Versprechen, per Mausklick gigantische Web-Diskurse mühelos in Excel-Tabellen oder Kuchendiagramme aggregieren zu können, hat was. Kein Wunder, dass der Köder simpler, quantifizierender Social Media-Forschungslösungen immer häufiger geschluckt wird. Ist demnach alles gut in der bunten Welt der Social Media-Forschung? Mitnichten! Allzu häufig versäumen Forschungsanbieter, ihr Tun zu hinterfragen. Zum Beispiel: Wie kommt Big Data zustande, wie wird eigentlich aggregiert? Welche Algorithmen laufen im Hintergrund? Sind die genutzten Quellen in ihrer Gesamtheit wirklich relevant? Wie soll eine Software semantische Stilmittel (wie Ironie) bewerten? Fragen, die oft unbeantwortet bleiben, wenn sie überhaupt aufkommen. Generell herrscht Unübersichtlichkeit. Es fehlt an einer klaren Definition: Was ist Monitoring und was Forschung? Beides wird in der Praxis oft unzulässigerweise vermischt (Abb. 1). Trotz – oder gerade wegen – des großen Angebots an „quick and dirty“ Monitoring-Tools besteht ein dringender Bedarf an ausgereifter Social Media-Forschungsexpertise. Dieser Forschungsbereich wird noch nicht so systematisch eruiert, wie es die Datenlage im Netz verdient hätte. Es mangelt an übergreifenden Standards und deshalb häufig an der Qualität der Analysen und der inhaltlichen Belastbarkeit der Resultate.

Größer heißt nicht besserDie Euphorie um Big Data kaschiert handfeste Probleme, die sich bei der Analyse großer Datenmengen ergeben. Zum einen sind hier Spam-Nachrichten zu nennen. Diese „verdrecken“ Auswertungen, sind jedoch ein Teil des massenhaften Inputs, quasi „The dark side of big data“. Des Weiteren existieren vielfache Wiederholungen. Viele Posts tauchen doppelt und dreifach in verschiedenen Foren und Blogs auf. Damit wird Data „big“, aber nicht unbedingt „better“. Ferner sind die Daten im Kontext des interpretativen Paradigmas zu verstehen. Analog zur qualitativen Forschung können Einzelmeinungen durchaus analytisch relevante Tendenzen abbilden. Monitoring-Tools ist das egal, Einzelmeinungen stehen nicht im Fokus. Und zuletzt sollte der Gedanke des „Theoretical Samplings“ gelten. Nach diesem Ansatz sollte Social Media-Forschung jene Stimmen fokussieren, die man als Forscher für die Fragestellung wirklich braucht, um inhaltliche Tiefe zu gewinnen: Teilzielgruppen, die wichtigen Input bringen. Big Data kennt aber kein gezieltes Sampling, sondern beachtet auch Quellen, die nicht analyserelevant sind – frei nach dem Motto: Masse statt Klasse!

Interpretationen können delikat sein„Post 1: ‚Ich finde, dieser Joghurt schmeckt nicht!‘ Post 2: ‚Echt? Ich finde ihn super, *grins*‘“. Welche Schlüsse zieht man aus aggregierten Daten, die auf solchen Diskussionen basieren? Betrachtet man beispielsweise den Fall, dass 70 Prozent der Befragten ein Produkt mögen, aber die Hälfte davon ihre Aussage ironisch verpackt, könnten Interpretationen hier durchaus delikat sein. Die viel gerühmten Sentiment-Analysen vermögen es nicht, solche Daten valide auszuwerten. Was ist mit den W-Fragen, die wir als qualitative Forscher permanent stellen, um Beweggründe zu explorieren? Die meisten Social Media-Forschungstools listen stur Posts auf, wobei eine Software die Relevanz der Aussagen im Stillen und kontextfrei maschinell vergibt. Der dahinterliegende Algorithmus bleibt den Anwendern in der Regel verborgen. Das bedeutet, die Fragen nach Gründen, Ursachen oder Motivlagen bleiben unbeachtet. Es sei denn, zusätzliche Methoden (zum Beispiel Interviews) werden angedockt. Das passiert in der täglichen Praxis aus Kostengründen eher selten.

Grenzen nicht überschreitenManche Social Media-Monitoringtools ermöglichen das „Engagement“ mit den Quellen. Damit erlauben sie es Unternehmen, auf Posts zu reagieren und somit mit der Zielgruppe – dem „Feld“ – zu interagieren (was zumindest teilweise den Vorteil der Daten des Web hemmt). Aus Forschungstools können so PR-Tools werden, womit für die Marktforschung eine rote Linie überschritten wird. Sie muss neutral bleiben, Standesregeln einhalten und Grenzen ziehen, indem sie User als anonyme Teilnehmer eines Forschungsprojekts respektiert. Demnach soll und darf Social Media-Forschung nur öffentlich zugängliche Daten heranziehen (offene Foren oder Blogs) und diese anonymisiert auswerten, ohne „Influencer“ auszuweisen oder diese gar für Marketingzwecke zu kontaktieren.

Forscher werden gebrauchtSocial Media-Forschung, die als Teil qualitativer Forschung begriffen und ernst genommen werden will, darf sich nicht mit einfachen Software-Lösungen zufriedengeben. Ferner dürfen nicht blindlings alle Daten gesammelt und ausgewertet werden. Im Sinne eines Theoretical Samplings sollte danach gestrebt werden, gezielt und systematisch jene Daten zu identifizieren, die forschungsrelevante Insights liefern. Fokussierte Social Media-Forschung muss sich klar unterscheiden von reinen Monitoring-Angeboten und tiefer in die Inhalte eintauchen. Sie braucht deshalb insgesamt mehr Sinnhaftigkeit, weniger „big“ als vielmehr „good“ data. Dementsprechend wird der Forscher mit seinen analytischen und interpretativen Kompetenzen gebraucht.