Von Fliegenfischern und Hobby-Gärtnern

Oliver Tabino ist im Vorstand der Deutschen Gesellschaft für Online-Forschung (DGOF). Außerdem ist er für die Einführung des  linkfluence-Ansatzes im deutschsprachigen Raum verantwortlich. Dabei handelt es sich um eine Methode, mit der neben dem klassischen Sammeln von Daten per Social Media Monitoring auch qualitative Forschung im Web betrieben werden kann. Tabino ist Geschäftsführer der gleichnamigen Firma, linkfluence, in Deutschland. Er ist derzeit außerdem an der Hochschule Pforzheim als Dozent für Social Media Research tätig. Tabino bloggt auf ilovemafo.com.

Herr Tabino, wann und wie sind Sie das erste Mal mit Social Media Research in Berührung gekommen?

Oliver Tabino

Oliver Tabino

Oliver Tabino: Eigentlich bin ich klassischer Marktforscher. Ich habe mich viel mit Lebensweltforschung und Marktforschung im engeren Sinne beschäftigt. Ich habe Soziologie und Politikwissenschaft studiert und bin dann in einem traditionellen Institut gelandet. Vor über fünf Jahren habe ich auf einer Konferenz den linkfluence-Ansatz kennengelernt. Dort wurden interaktive Landkarten der Blogosphäre gezeigt, auf denen man erkennen kann, wie das Social Web und Communities im Web strukturiert sind.  Das war ein Aha-Erlebnis, weil uns klar wurde, dass man dadurch eine Art Stichprobe im Web ziehen kann und so Zielgruppen im Web finden und erforschen kann. Das fand ich so faszinierend, weil es die klassischen Denkweisen in der Marktforschung – eben diese Lebenswelten – auf das Web übertragen hat. Das war also mein Einstieg in die Social-Media-Forschung. Wir haben in meiner ersten Firma ,Q Agentur für Forschung‘, gemerkt, dass das Thema Social Media für Menschen letztendlich ein neuer Kanal ist, ein neuer Bereich der Lebenswelt, wo sich damals noch vorwiegend junge Menschen bewegt haben, ihn genutzt haben, aktiv geworden sind. Das hat uns als Lebensweltforscher interessiert zu sagen: ,Ok, da ist was und wie kann man das jetzt für Erkenntnisgewinn und Forschung benutzen?‘

Damals waren Sie also noch Vorreiter in diesem Bereich. Hat sich die Forschung inzwischen schon stark verändert?

Tabino: Die hat sich auf jeden Fall sehr stark verändert. Damals gab es praktisch nur Suchmaschinen, und die ersten Monitoring-Anbieter kamen eher aus dem Bereich der Programmierung. Sie konnten gute Such-Algorithmen schreiben, aber von Fragestellungen aus der Marktforschung und der Marketingberatung hatten viele Anbieter keine Ahnung. Wir waren eigentlich die ersten, die das mit dem Thema Marktforschung und vor allem der qualitativen Marktforschung verbunden haben. Seitdem ist sehr viel passiert. Fünf Jahre sind in dieser Branche eine lange Zeit. Viele Unternehmen, die auf den Markt gespült wurden, sind schon wieder verschwunden. Mittlerweile merkt man, dass auch große Unternehmen sich immer stärker damit auseinandersetzen. Vor kurzem hat zum Beispiel Apple Topsy gekauft, die auch Monitoring machen können. Langsam gewinnt das Thema auch mit der Diskussion um Big Data immer mehr an Gewicht und Einfluss und wird auch im digitalen Marketing immer stärker als Entscheidungsgrundlage integriert.

Was genau macht linkfluence, der Ansatz für Social Media Research, den Sie im deutschsprachigen Raum eingeführt haben?

Tabino: linkfluence macht eigentlich zwei Dinge: Einmal haben wir ein Monitoring-Tool und ein Engagement-Tool, das ist eine Software-as-a-Service-Lösung, die wir, wie auch andere Anbieter, als eine Art Dashbord-Lösung für Social-Media-Manager oder für Agenturen und Marktforscher verkaufen. Das ist dann quasi das Sammeln der Daten. Der andere Bereich ist, dass wir letztendlich komplexe Forschungsprojekte anbieten, wo wir uns vorher angucken: Was ist eigentlich das wichtige Thema? Was sind die wichtigen Quellen? Und dann das Social-Media-Monitoring mit einem eher netnographischen Ansatz verbinden. Das heißt, wir gehen sehr stark in die Inhalte. Wir gucken vorher, wie sind die Strukturen im Netz, was sind die wichtigsten Player oder Akteure in der Community, und untersuchen die inhaltsanalytisch. Das ist dann wirklich qualitative Marktforschung ins Web übertragen. Man erforscht letztendlich Menschen in ihrem natürlichen ,Habitat‘, und wenn dann eben Gärtner ihren eigenen Gärtnerblog haben und darüber schreiben und Bilder posten, dann gehen wir auf diese Gärtnerblogs und finden die einflussreichsten und wichtigsten und machen dann qualitative, inhaltsanalytische Analysen dazu.

Welchen Mehrwert bringt das im Vergleich zur klassischen Marktforschung? Wieso geht man also nicht einfach hin und beobachtet den Gärtner im Garten?

Tabino: Das geht natürlich auch. Es hängt immer von der Fragestellung ab, möglich ist beides und beides ist sinnvoll. Ich kann sagen, es ist sinnvoll, die Gärtner zu besuchen und Fotos von ihnen zu machen und mit ihnen zu reden. Ich kann aber auch sagen, die machen die Fotos selbst, wenn ich die Blogs von denen anschaue, sind sie also völlig unbeeinflusst von mir als Forscher. Das ist der große Vorteil. Es gibt keinen Bias, keine Beeinflussung. Ich habe außerdem Menschen, die das Thema offensichtlich so leidenschaftlich verfolgen, dass sie sogar Zeit darauf verwenden, sich in ihrem Gartenblog auszuleben. Der Nachteil des Ganzen ist, dass man keine Fragen stellen kann. Das Nachbohren ist schwieriger. Das ist allerdings eine Entwicklung, die auch sehe. Vor zwei, drei, vier Jahren hat man die Methoden noch stärker getrennt. Da gab es entweder Social Media oder klassische Marktforschung. Mittlerweile verbinden wir das und es kommen auch häufiger Anfragen, ob man das denn verknüpfen könnte.

Und wie läuft das im Web genau ab?

Tabino: Die Grundidee ist: Wenn ich in eine gut sortierten Bahnhofsbuchhandlung gehe und ich gehe in den hinteren Bereich, wo die ganzen Special-Interest-Zeitschriften sind, dann habe ich da zum Beispiel die Angler. Und ich sehe auch: Es gibt Angler, die machen Hochseefischen, es gibt die Fliegenfischer und die Karpfenangler und welche mit Netz und ohne Netz und so weiter. Es gibt also Menschen, die sich für ein bestimmtes Thema interessieren und auch offensichtlich Zeitschriften dazu kaufen. Das ist der Punkt, wo wir anspringen und sagen, das sind Arten von Lebenswelten, weil sich diese Menschen eben für ein bestimmtes Hobby interessieren. Und genau diese Idee wollen wir ins Web übertragen. Der erste Schritt wäre also: Finden wir tatsächlich Menschen oder Unternehmen, die über Angeln in seinen verschiedenen Facetten im Web etwas zum Besten geben? Dann bilden wir Hypothesen darüber, welche Themen das sein könnten. Es gibt eben Hochseefischer, normale Angler und so weiter. Daraus entstellen wir ein semantisches Profil mit vielen Begriffen. Damit füttern wir unseren Crawler. Der gibt uns dann Ergebnisse zurück, die einerseits dieses semantische Profil widerspiegeln und andererseits greift er Hyperlinks ab. Daran können wir dann auf den Landkarten sehen, ob sich eine Struktur herausbildet und wie die unterschiedlichen Websites miteinander vernetzt sind. Dann sieht man zum Beispiel, dass tatsächlich Cluster entstehen, weil sich nur die Fliegenfischer austauschen und die auch nicht zu den Hochseefischern oder Schwertfischanglern verlinken. Man sieht also: Unter dem Begriff der Angler und Fischer gibt es nochmal Subkulturen. Die können wir dann ausfindig machen, in einer Karte darstellen. Dann überprüfen wir die Hypothesen in einem zweiten Crawl noch einmal und daraus entsteht dann das Abbild des Angel-Themas im Web. Und daran können wir auch erkennen, welche Marken etwa für Angler eine große Rolle spielen, wo Trends herkommen und so weiter. Darüber fahren wir unsere Inhaltsanalysen. Es läuft also genau umgekehrt wie beim Monitoring. Wir strukturieren zuerst und gucken uns dann die Inhalte an.

Linkfluence-Karte

Linkfluence-Karte zum Thema Gesundheit und Diabetes

In einem von Ihnen verfassten Artikel auf marktforschung.de prangern Sie an, dass einige Ihrer Kollegen vermuten, dass irgendwann der Programmierer den Marktforscher ersetzen wird. Das sehen Sie offensichtlich anders.

Tabino: Ich sehe da zwei Entwicklungen. Die eine ist, dass sich das Berufsbild des Marktforschers natürlich verändern wird. Da werden wir nicht dran vorbeikommen. Und dass natürlich Programmierer, die eine hohe Technikkompetenz haben, eine wichtige Rolle spielen werden, ist klar. Davor kann und sollte sich die Marktforschung auch nicht verschließen. Das andere, was ich mit diesem Artikel meine und auch ein bisschen anprangere, ist, dass es im Moment oft in eine andere Richtung umschlägt. Dass Big Data oder in sozialen Medien erhobene Daten die Lösung für alles sind. Es wird der Eindruck erweckt, dass man nur Daten braucht, um die Welt zu verstehen. Ein Manager, der genügend Daten zur Verfügung hat, der kann bessere Entscheidungen treffen. Ich bin jedoch überzeugt, dass nicht Daten Entscheidungen treffen, sondern Menschen. Und Menschen müssen diese Daten interpretieren. Und deshalb bin ich auch nach wie vor davon überzeugt, dass Menschen, die eine Ahnung haben von marktforscherischen Methoden, auch in Zukunft eine große Rolle spielen werden. Denn sonst interpretiert jeder wild irgendwelche Daten und macht Schlussfolgerungen und weiß überhaupt nicht, wovon er spricht. Das finde ich sogar gefährlich.

Bergen also Tools wie etwa Datawrapper solche Gefahren? Denn damit können ja auch Laien oder zum Beispiel Journalisten einfach Daten verarbeiten und zur Interpretation freigeben.

Tabino: Es ist natürlich in Ordnung, Tools zu verwenden. Man muss sich nur der Konsequenz und der Qualität der Auswertung bewusst sein. Ich mache da mal eine Vergleich: So toll wie ich Google Translate finde, weil es mir hilft und mir einen schnellen Überblick verschafft, weiß ich trotzdem, wo die Grenzen liegen. Wenn ich jetzt einen Text, den Google Translate übersetzt hat, mit einem Text vergleiche, den ein guter Übersetzer übersetzt hat, der dann vielleicht auch noch etwas von der Thematik versteht, dann ist der Unterschied extrem. Google Translate wird auch keine Gedichte schreiben können. Andererseits ist Google Translate umsonst und das andere kostet viel Geld. Es ist immer eine Form der Abwägung. Man muss nur aufpassen und sich darüber im Klaren sein, worauf man sich verlässt bzw. was die möglichen Folgen sind.  Auch hier gilt: Tools sind nur technische Hilfsmittel, der Mensch ist dafür verantwortlich, diese verantwortungsbewusst einzusetzen.

Mit den Themen ,Big Data‘ und dem Sammeln von Daten im Web schwingt vor allem in letzter Zeit auch das Thema NSA und daher Datenschutz mit. Ist es deshalb für die Forschung notwendig, Standards für die Nutzung von Daten aus dem Web zu definieren?

Tabino: Standards sind definitiv notwendig. Daran arbeiten wir gerade auch in der DGOF sehr stark. Das ist ein ganz wichtiges Thema bei den Verbänden, eine Social-Media-Research-Guideline, die dann vielleicht auch in einer ISO-Norm mündet, aufzustellen. Ich glaube, das ist auch ein bisschen ein kulturelles Phänomen. In Deutschland ist das Thema Datenschutz ein sehr wichtiges und ein sehr öffentliches Thema. In anderen Ländern – zum Beispiel in den USA – gehen die Menschen häufig mit persönlichen Daten viel lockerer um. Das ist gar keine Bewertung, sondern nur eine Beschreibung. Auch dieser kulturelle Kontext hat einen Einfluss. Deshalb wird auch übergreifend über verschiedene methodische Ansätze der Marktforschung diskutiert. Die einen halten den Datenschutz und die Anonymität schon fast für so etwas wie einen ,heiligen Gral‘ der Marktforschung, die anderen sagen: ,Nee, das muss aufgelockert werden, da muss man ein bisschen pragmatisch sein und sich daran orientieren, was der Kunde will.‘ Da findet schon beinahe ein kleiner Glaubenskampf statt. Das ist mit Sicherheit auch der Öffentlichkeit durch die NSA-Skandale geschuldet. Aber das Thema Schutz von persönlichen Daten ist auch in der klassischen Marktforschung ein wichtiges Thema. Also da dürfen Sie auch nicht, wenn wir beispielsweise eine Gruppendiskussion machen, die persönlichen Daten dem Kunden übergeben.

Der Unterschied ist aber, dass die Menschen in diesem Moment wissen, dass sie Teil einer Befragung sind.

Tabino: Das stimmt. Das ist auch ein großes Thema, das beim Entwerfen dieser Richtlinien diskutiert wird. Inwieweit das Thema Freiwilligkeit eine Rolle spielt, also, dass ich eben weiß, dass ich gerade befragt werde. Auch da ist die Rechtslage nicht eindeutig. Meine Annahme ist: Wenn jemand einen Blog schreibt und ihn im Internet veröffentlicht, ohne ihn irgendwie zu sichern, gehe ich davon aus, dass derjenige davon ausgeht, dass man das lesen und finden kann. Das ist meine Grundannahme. Wenn jemand etwas öffentlich postet, dann sollte und kann er oder sie sich darüber bewusst sein, dass das theoretisch jeder sehen kann. Das ist für die Datensammlung der erste wichtige Schritt. Das zweite Thema ist, ob ich die Inhalte eins zu eins einem Kunden übergebe, oder ob ich die, wie in der Marktforschung üblich, als Aggregat zur Verfügung stelle und dann nicht sage: ,Der Blogger Oliver Tabino sagt‘, sondern ,Der Mafo-Blogger xy hat diese Meinung‘. Dann bin ich genau so sicher wie in der klassischen Markforschung. Ich benutze zwar die Inhalte, aber stelle nicht die Beziehung zwischen Inhalt und Person her.

Glossar:
Social Media Monitoring: Social Media Monitoring ist die kontinuierliche Beobachtung und Analyse verschiedener Bereiche des Web 2.o. Unternehmen oder etwa Marktforschungsinstitute beobachten also Diskussionen in sozialen Netzwerken, Foren, machen populäre Themen in Blogs ausfindig, etc. und werten mit Hilfe von Analyse-Tools die so gewonnen Daten aus. Zurück zum Interview.
Software-as-a-Service (SaaS): Software-as-a-Service-Lösungen sind Teil des Cloud-Computing-Konzepts. Die Software selbst und die dafür nötige IT-Infrastruktur werden also für Kunden von einem externen IT-Dienstleister bereitgestellt. Die Kunden können die Software dann online, meist über den Webbrowser, nutzen. Zurück zum Interview.

Netnographie: „Netnographie“ ist ein Kunstwort, das sich aus den beiden Begriffen „Ethnografie“ und „Internet“ zusammensetzt. Die Ethnografie bezeichnet eine Feldforschungsmethode der Sozialwissenschaften, bei der der Forscher seine Erkentnisse durch teilnehmende Beobachtung gewinnt. Zurück zum Interview.

Tanja Mokosch