30.06.2014, 16:11 Uhr | 0 |

User sind empört Facebook hat Newsstream für Experiment heimlich verändert

Das soziale Netzwerk Facebook hat vor zweieinhalb Jahren ein Experiment an seinen eigenen Nutzern durchgeführt. Ohne deren Wissen hat sich der Konzern dabei in den Newsstream eingemischt. Jetzt kochen die Emotionen im Netz über – passenderweise ging es bei dem Versuch selbst um Gefühlsregungen.

Facebook wollte herausfinden, ob sich User von Negativmeldungen gefühlsmäßig beeinträchtigen lassen
Á

Facebook wollte herausfinden, ob sich User von Negativmeldungen gefühlsmäßig beeinträchtigen lassen. Der Konzern mischte sich daher bei Versuchspersonen ohne deren Wissen in den Newsstream ein.

Foto: dpa/Daniel Reinhardt

Fühlen sich Facebook-User ausgeschlossen, wenn sie viele positive Nachrichten ihrer Freunde lesen? Oder lassen sie sich von schlechten Einträgen die Schreiblaune vermiesen? Beides wäre unschön – für die User selbst und natürlich für Facebook, das auf diese User nicht verzichten möchte. Was liegt da näher, als diese Annahmen in einer Studie zu überprüfen. So weit, so gut: Im Januar 2012 fand dieser Versuch im englischsprachigen Facebook-Raum statt – mit immerhin 690.000 Teilnehmern. Das dreiseitige Ergebnis wurde 2014 veröffentlicht. Der Haken: Die User wussten nichts von ihrer Probandenrolle.

Facebook veränderte heimlich den Newsfeed

Wie jetzt bekannt wurde, veränderte Facebook den Newsfeed bei den ahnungslosen Usern. Das heißt: Einige bekamen mehr negative Meldungen ihrer Freunde angezeigt, andere mehr positive. Dabei betonen die Autoren der Studie, dass kein Posting wirklich versteckt worden ist, sondern dass manche Veröffentlichungen lediglich eine höhere Priorität zugewiesen bekommen haben als andere – in der Standard-Einstellung, zu der Facebook immer wieder zurückkehrt, werden vor allem die Top-Postings angezeigt. Auf eine chronologische Darstellung kann man manuell umschalten.

Normalerweise werden die Prioritäten aufgrund der Nutzeraktivität zugewiesen. Für die Studie legten die Forscher jedoch andere Kriterien an: Ausgewählt wurden die mehr als drei Millionen Statusmeldungen und Postings mit Hilfe automatischer Wortfilter. Auf dieselbe Weise wurden auch die Postings der Probanden ausgewertet. Dabei zeigte sich, dass die User sich bei ihren eigenen Postings von der vermeintlich vorherrschenden Stimmung in ihrem Freundeskreis beeinflussen ließen: Wer Positives zu lesen bekam, postete ebenfalls eher Erfreuliches, während traurige Meldungen eher negativen Output verursachten. Die ursprünglichen Annahmen, dass User sich aufgrund von überwiegend positiven oder negativen Nachrichten vom sozialen Netzwerk zurückziehen könnten, wurden dagegen nicht bestätigt.

AGBs geben Facebook prinzipiell Recht

Insgesamt ist die Ergebnislage eher dünn – zu dünn für die Menge an Porzellan, die durch die Manipulation zerschlagen wurde, wie Adam Kramer als einer der drei Studienautoren jetzt via Facebook-Meldung zugibt. Das Psycho-Experiment, wie der Versuch mittlerweile in vielen Medien genannt wird, ist zwar bereits zweieinhalb Jahre her, die Emotionen kochen aber immer noch hoch.

Dabei hilft es auch nicht, dass laut Kramer nur 0,04 Prozent der User oder einer von 2500 betroffen waren, die Ergebnisse anonymisiert worden seien, das Experiment lediglich eine Woche gedauert hat und dass Facebook sich das Recht zu internen Studien in seinen zu den AGBs gehörenden Datenverwendungsrichtlinien ausdrücklich hat zusichern lassen. Kramer rudert daher im Namen von Facebook zurück: Er bedauere, dass die Studie so ungünstig kommuniziert worden sei, schreibt er, und er verstehe, dass mancher User sich Sorgen mache – dafür entschuldige er sich. Inzwischen habe man hinzugelernt und das Vorgehen bei internen Studien verbessert. Dazu trügen auch die jüngsten Reaktionen bei.

Anzeige
Von Judith Bexten
Zur StartseiteZur Startseite
schlagworte: 
kommentare

Aktuell wurden noch keine Kommentare zu diesem Artikel abgegeben. Loggen Sie ich ein oder melden Sie sich neu an, wenn Sie noch keine Zugangsdaten haben
> Zum Login     > Neu anmelden