Facebook hat für ein Forschungsprojekt den News Feed von 689.003 seiner Nutzer manipuliert. Das geht aus einem Bericht in der Fachzeitschrift Proceedings of the National Academy of Science hervor, die von der Akademie der Wissenschaften der Vereinigten Staaten herausgegeben wird. Ziel war es herauszufinden, wie sich positive und negative Ereignisse über Soziale Netzwerke verbreiten und auf die Stimmung der Nutzer auswirken.
Den Forschern zufolge werden „persönliche Kontakte und nonverbale Hinweise nicht zwingend benötigt, um Emotionen auszulösen“. Um ihre Hypothese zu belegen, haben sie laut The Verge fast 690.000 englischsprachige Facebook-Nutzer in zwei Gruppen unterteilt. Einige erhielten über einen bestimmten Zeitraum nur Nachrichten im News-Feed, die positive Gefühle auslösen sollen, bei den anderen waren es nur Einträge mit negativen Inhalten.
„Wenn eine Person ihren News Feed geladen hat, lag die Wahrscheinlichkeit, dass ein Eintrag mit einem emotionalen Inhalt ausgelassen wurde, bei 10 bis 90 Prozent“, zitiert The Verge aus dem Forschungsbericht. Die Nachrichten, die durch das Forschungsprojekt den betroffenen Nutzern vorenthalten wurden, seien jedoch weiterhin in der Timeline des jeweiligen Freundes oder nach dem erneuten Laden des News Feed sichtbar gewesen. Die Forscher hätten zudem nach eigenen Angaben keine zwischen Nutzern verschickten Direktnachrichten verändert.
Darüber hinaus betonten die Forscher, dass diese Art der Manipulation durch Facebooks Nutzungsbedingungen gedeckt sei. Bei der Anmeldung bei Facebook bestätigten Nutzer, dass ihre Daten auch für Forschungszwecke benutzt werden dürfen. „Auch wenn nichts über die Veränderung von Dingen wie dem News Feed in den Richtlinien steht, ist es unwahrscheinlich, dass Facebook für die Durchführung des Experiments gegen seine Nutzungsbedingungen verstoßen hat“, kommentiert The Verge.
Einem Bericht von The Atlantic zufolge waren nicht alle an der Studie beteiligten Wissenschaftler von deren Rechtmäßigkeit überzeugt. „Ich war beunruhigt, bis ich mit den Autoren gesprochen habe und sie mir sagten, ihre Ethikkommission habe die Studie genehmigt, weil Facebook den News Feed seiner Nutzer ständig manipuliere“, zitiert die Zeitung Susan Fiske, Psychologieprofessorin an der Princeton University. „Ich verstehe, warum die Menschen beunruhigt sind.“
„Der Grund, warum wir die Studie durchgeführt haben, ist, dass wir die emotionalen Auswirkungen von Facebook und die Menschen, die unser Produkt nutzen, wichtig nehmen“, heißt es in einer Stellungnahme von Adam Kramer, Mitglied von Facebooks Data Science Team und Co-Autor der Studie. „Unsere Ziele haben wir in der Studie nicht deutlich angegeben.“ Facebook habe befürchtet, Nutzer könnten sich schlecht und alleingelassen fühlen, wenn sie positive Nachrichten von Freunden lesen, oder Facebook nicht mehr besuchen, wenn ihre Freunde zu „negativ“ seien, ergänzte Kramer.
[mit Material von Chris Matyszczyk, News.com]
Tipp: Sind Sie ein Facebook-Experte? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…