Facebook-Nutzer sind über eine Studie empört, die im Jahr 2013 für eine Woche die Newsfeeds von knapp 690.000 Nutzern der englischsprachigen Facebook-Version manipulierte.

Bei dem Experiment sollte erforscht werden, wie sich positive und negative Emotionen in Netzwerken ausbreiten. Entsprechend wurden für Nutzer die Einträge ihrer Facebook-Freunde vorgefiltert.

Ergebnis der Studie:

Menschen, die mehr positive Nachrichten sahen, neigten eher dazu selbst Einträge mit positivem Inhalt zu veröffentlichen – und umgekehrt.

Inwieweit ist eine solche Manipulation der Anzeige in Wirklichkeit eine Manipulation der User?

So funktioniert das Ganze:

Es wurden laut Studie über 3 Millionen Einträge von einer Software ausgewertet, die per Wortanalyse die Emotion zuordnete.

Das brachte neben Kritik an der ethischen Seite des Experiments auch Zweifel an der Aussagekraft der Studie: So verwies das Psychologie-Blog „Psych Central“ auf Schwierigkeiten der verwendeten Software, die Stimmung eines Eintrags nur anhand einzelner Wörter zuzuordnen. Es wurden offenbar schlichtweg positiv und negativ konnotierte Begriffe maschinell ausgewertet. Die verwendete Software jedoch könne viele Feinheiten der Sprache wie Verneinungen etc. nicht korrekt auswerten. Damit ist also die Gültigkeit der Ergebnisse zu hinterfragen.

Darf Facebook eine solche Studie ohne das Wissen der Nutzer starten?

Facebooks Datenschutzregeln erlauben ein derartiges Vorgehen.

Gibt es Unterschiede der Studie zu den A/B-Tests, welche die eigene (zu testende Umgebung/Internetseite) anpassen um den User abschlussfreudiger zu stimmen?

Beim A/B-Testing erstellt man 2 (oder mehr) verschiedene Testversionen einer Webseite um zu testen, mit welcher Version man sein Ziel (z.B. Produktverkäufe, Anmeldungen etc.) besser erreicht. Google beispielsweise testet so permanent die Suchseite und die Suchergebnisseite.

Der Besucher wird über einen bestimmten Zeitraum (per Zufall!) auf diese Seiten verteilt. Damit kann man analysieren, welche der Seiten zu der höheren Konversionsrate führt; also zu vergleichsweise mehr Verkäufen, niedrigeren Absprungraten …

Die erfolgreiche Version wird dann dauerhaft implementiert um später eventuell erneut gegen eine weitere Variante getestet zu werden.

Macht es tatsächlich einen Unterschied wenn man das Layout/die Gestaltung oder die Themen anpasst?

Selbst kleine Veränderungen im Design und Aufbau einer Webseite können dabei zu großen Unterschieden führen.

Im Kontext:

Sind wir Versuchskaninchen und wird die „ethische-Grenze“ oftmals überschritten?

Wenn ja: Wie weit kann man sich vor solchen Manipulationen schützen und diese erkennen?

Fakt ist, dass knapp 700.000 Facebook-Nutzer nicht wussten, dass ihr Newsstream (indirekt Ihre Emotionen) eine Woche lang manipuliert wurden.

Laut Nutzungsbedingungen von FB ist ein solches Vorgehen durchaus legal. Solche „Tests“ sollen der Weiterentwicklung der Plattform dienen.

Allgemein gesprochen würde man das Experiment dem sogenannten Social Engineering zuordnen; also dem Beeinflussen und Ausspionieren von Verhaltensweisen im Interesse des Unternehmens.

Entscheidend ist dabei aber auch immer der Aspekt der betroffenen Nutzer, die davon nichts wussten.

Hierzu verweist Facebook auf die Nutzungsbedingungen; die Forscher der Studie behaupten in ihrer Publikation, dieses Einverständnis habe vorgelegen.

Durch diese Tests werden wohl soziale Manipulationsmöglichkeiten der  Netzwerke  deutlich und als Nutzer stellt man sich natürlich die Frage was Facebook, aber auch google oder beispielsweise die Nachrichtenseiten-/sendungen  noch alles können – wenn sie wollen!?

Die Studie als Volltext finden Sie unter: www.pnas.org/content/111/24/8788.full