• Snapchat-Symbol
  • Twitter-Symbol
  • Facebook-Symbol
  • Google+-Symbol
  • YouTube-Symbol
  • Soundcloud-Symbol
  • Xing-Symbol
  • LinkedIn-Symbol
  • Skype-Symbol
  • RSS-Symbol
01.07.2014 Social Media für KMU Von: Christian Müller 0 Kommentare

Facebook Studie: Rundblick und Einschätzung

Es war der Aufreger zum Wochenbeginn: Facebook missbraucht seine Nutzer als Versuchskaninchen. Die konkrete Studie an sich ist neu und wurde bereits vor einem guten Monat veröffentlicht. Jochen Mai hat damals beispielsweise auf der Karrierebibel berichtet. Die Aufregung entzündet sich an der Tatsache, dass der Newsfeed der Versuchspersonen ohne deren Zustimmung manipuliert wurde. Carsten Drees bringt auf Mobilegeeks Inhalt und Zielsetzung der Studie in Kurzform auf den Punkt:

Willkommen im Facebook-Testlabor: Anstelle von weißen Mäusen experimentierte man bei Facebook mit seinen Nutzern und herausfinden wollte man, ob positive News im eigenen Feed dazu führen, dass man sich selbst ebenfalls positiver äußert – und umgekehrt auch negativer, wenn negative Meldungen den Newsfeed bestimmen.

FreundFacebook

Schlechte PR? Facebook kann es egal sein

In einem kürzlich veröffentlichten Facebook-Beitrag äußert sich sogar eine der Hauptautorinnen der fraglichen Studie kritisch und zumindest ansatzweise reumütig. Sie fragt sich, ob die Ergebnisse den Ärger und die Empörung wirklich wert waren und sind.

Auf den ersten Blick eine nachvollziehbare Frage, denn das Medienecho war deutlich negativ. Aus meiner Sicht ist die Empörung emotional völlig nachvollziehbar und das Vorgehen ethisch nicht vertretbar. Doch wird es juristische Konsequenzen geben? Facebook selbst gibt an, dass die Nutzer einer solchen Manipulation in der Datennutzungsrichtlinie – die natürlich Teil der AGB ist – zugestimmt haben. Doch hier gibt es das erste Problem, wie die Kollegen von Winfuture berichten:

Es gibt hier allerdings ein Problem, wie Forbes aufgefallen ist: Zum Zeitpunkt der Durchführung des Experiments im Januar 2012 gab es in den Datenverwendungsrichtlinien keinen Verweis auf “Forschung”, das wurde erst vier Monate später nachgereicht.

Noch kritischer sieht es der geschätzte Rechtsanwalt Thomas Schwenke. Er schreibt in seinem lesenswerten Blog-Artikel zum Thema:

D.h. eine Beeinflussung des Newsfeeds kann erhebliche gesellschaftliche Auswirkungen haben. Daher müssen diese Nachteile aufgewogen werden, was nur möglich ist, wenn die Nutzer sehr deutlich und verständlich aufgeklärt werden. Zu denken wäre da an eine Opt-In-Option wie im folgenden Beispiel.

Ansonsten ist die Einwilligung intransparent und unwirksam, was rechtliche Folgen nach sich ziehen kann

Kollege Jens Wiese ist auf allfacebook dagegen der Meinung, dass die Aufregung völlig unnötig ist. Doch Björn Tantau bringt es in seinem Blog-Artikel hervorragend auf den Punkt und zeigt, warum Facebook sich – trotzt potenzieller rechtlicher Schwierigkeiten – wegen der negativen Berichterstattung keine Sorgen machen muss:

Auf Facebook verhält sich die Sache jetzt allerdings anders. Der Tatbestand wird bekannt, es gibt viel Aufregung, auf Facebook machen empörte Postings die Runde und viele sagen, es sei eine Frechheit, was dort geschehe. Doch gibt es irgendwelche Konsequenzen? Nein.

Wie profitiert Facebook von den Ergebnissen?

Die aus der Studie gewonnenen Ergebnisse sind aus meiner Sicht für Facebook – zumindest potenziell – Gold wert. Das Unternehmen weiß jetzt, dass und wie es die Stimmung – und damit die Meinung und das Klick-Verhalten – von Nutzern beeinflussen kann. Theoretisch könnte dieses Wissen – und eine ähnliche Manipulation des Newsfeeds – beispielsweise dazu genutzt werden, die Wirkung von Werbeanzeigen zu steigern. So könnten diese gegen eine weitere Gebühr nur noch im Umfeld positiver Beiträge platziert werden.

Florian Blaschke spinnt den Gedanken auf t3n weiter:

Malen wir uns folgendes Szenario aus. Ein Unternehmen, das seit einiger Zeit mit schlechter Presse und Gegenwind im Netz zu kämpfen hat, arbeitet an einem neuen Produkt. Eine Marketingkampagne ist entwickelt, das Produkt serienreif, die Nachfrage laut eigener Studien durchaus vorhanden. Gegen die öffentliche Meinung aber einen Launch zu wagen, ist der Firma zu heikel. Genau hier könnte Facebooks Experiment ins Spiel kommen. Was, wenn sich der erste Schwung an Postings über das neue Produkt in einen bestimmten emotionalen Kontext einbetten ließe – etwa in eine bestimmte Anzahl negativ konnotierter Nachrichten? Oder umgekehrt: in eine bestimmte Anzahl positiver News? Marketingabteilungen weltweit würden sich nach einem Feature, das Facebook nach diesem Muster strickt, die Finger lecken.

Wer sich außerdem für die vermutete Beteiligung des US-Militärs an der Studie interessiert, sollte den oben verlinkten t3n-Artikel unbedingt lesen. Wer sich außerdem einen noch umfassenderen Überblick über das Thema verschaffen will, wird bei Thomas Pleil auf Medium.com fündig. Für mich eine klare Leseempfehlung!

Ein Weckruf… und die Konsequenzen

Rege ich mich über die ungefragte Manipulation des Newsfeeds auf? Ein wenig, doch längst nicht so sehr, wie der eine oder andere vermutlich erwartet. Der Grund ist einfach: Der Fall zeigt für mich nur, dass soziale Netzwerke keinesfalls neutrale Informationsquellen, sondern eben gefilterte und gesteuerte Kanäle sind. Mit Steuerung meine ich jedoch keine Verschwörungstheorie und unterstelle auch keine Absicht oder Agenda. Die verwendeten Algorithmen sind in vielen Fällen einfach nötig, um die Netzwerke für Nutzer relevant zu halten.

Wem nach dem aktuellen Fall immer noch nicht klar ist, dass der Begriff der Filterbubble sehr reale Wurzeln hat, sollte sich dringend Gedanken über seine Medienkompetenz machen. Hier zitiere ich noch mal Kollege Björn Tantau:

Mit der immer schnelleren Entwicklung hin zur digitalen Informationsgesellschaft drängt sich mir auch immer wieder der Verdacht auf, dass Teile der Gesellschaft bei diesem wichtigen Punkt auf der Strecke bleiben könnten. Zu einem subjektiv verantwortungsvollen Umgang mit digitalen Medien wie Facebook gehört auch die Bereitschaft, selbst zu reflektieren und gegebenenfalls die eigene Komfortzone zu verlassen – auch wenn das schmerzhaft ist.

Im konkreten Fall besteht das Verlassen der Komfortzone aus dem verstärkten Einsatz von Facebook-Listen, die ich persönlich gerne und oft nutze. Wenn Du Dich damit befassen willst, empfehle ich Dir den hervorragenden Artikel von Annette Schwindt zu diesem Thema. Und wenn Du eine Facebook-Seite betreibst, könnten Dich dieser Artikel dazu interessieren.

Porträt Christian Müller

Christian Müller

Twitter-Symbol Facebook-Symbol YouTube-Symbol Soundcloud-Symbol Xing-Symbol LinkedIn-Symbol Skype-Symbol

Christian unterstützt als Kommunikationsberater Soziale Einrichtungen, Bildungsträger, KMU und Start Ups auf dem Weg in die digitale Kommunikation. Mit seinen Kunden entwickelt er Kommunikationsstrategien, schult Mitarbeiter und hilft dabei, die nötige Kompetenz inhouse aufzubauen. Das Ziel: Die individuell wichtigen Menschen zu erreichen, Gespräche zu initiieren und tragfähige (Kunden) Beziehungen aufzubauen.

Einen Kommentar schreiben

* Pflichtfeld / ** Wird nicht veröffentlicht!

 
Ich stimme zu, dass meine Angaben und Daten elektronisch erhoben und gespeichert werden.
Mehr dazu finden Sie in der Datenschutzerklärung. Hinweis: Sie können Ihre Einwilligung jederzeit für die Zukunft per E-Mail an cm@sozial-pr.net widerrufen.
 
Navigation