Unter dem Titel „YouTube, der große Radikalisierer“ veröffentlichte die Soziologin Zeynep Tufekci im Jahr 2018 einen Kommentar, der das Image der Videoplattform bis heute prägt. Nachdem Tufekci sich Videos von Donald Trumps Kundgebungen angeschaut hatte, schlug die Plattform ihr Inhalte mit rassistischen Ideologien vor. Nach Videos von Hillary Clinton und Bernie Sanders blendeten ihr die Algorithmen der Plattform wiederum Filme mit linken Verschwörungstheorien ein. Das passierte nicht nur bei politischen Inhalten: Videos über vegetarische Ernährung führten zu Videos über Veganismus. Rief Tufekci Videos zu Jogging auf, wurden ihr weitere zu Ultramarathons angeboten, schrieb sie in der New York Times.
Das Muster dahinter war immer gleich: Alles wurde immer extremer. „Angesichts seiner rund eine Milliarde Nutzer könnte YouTube eines der mächtigsten Radikalisierungsinstrumente des 21. Jahrhunderts sein“, mutmaßte die Wissenschaftlerin.
Damit brachte sie den Verdacht auf den Punkt, unter dem Internetplattformen bis heute stehen: Sie führen zu einer Spaltung der Gesellschaft. Grund sind demnach die Empfehlungsalgorithmen. Sie lernen die Vorlieben der Nutzer kennen und präsentieren ihnen immer mehr Inhalte, um sie damit an den Bildschirm zu fesseln. Weil diese Inhalte genau darauf zugeschnitten sind, was die Nutzer sehen wollen, bestätigen sie deren Weltsicht – und drängen sie ins Extreme.
Ein Experiment mit Filterblasen und „Rabbit Holes“
Doch gibt es diese Wirkung der algorithmischen Empfehlung auf die geistige Haltung wirklich? Das haben nun Forscher aus Princeton und Harvard in mehreren Experimenten untersucht und sind dabei explizit den Befürchtungen von Zeynep Tufekci nachgegangen. Sie entwickelten dafür eine Youtube nachempfundene Plattform und ließen dort knapp 9000 Testpersonen aus den Vereinigten Staaten je fünf Videos schauen. Um das Experiment realistisch zu halten, nutzten sie echte Videos von Youtube zum Waffenrecht und zum Mindestlohn, also zu politisch aufgeladenen Themen.
Nachdem eine Testperson das erste Video gesehen hatte, bekam sie vier weitere vorgeschlagen, aus denen sie wählen konnte. Auch diese Vorschläge waren den echten Empfehlungen von Youtube entnommen, jedoch griffen die Forscher hier ein: Ein Teil der Nutzer bekam mehr Videos empfohlen, die den Standpunkt des ersten Videos bestätigten. Der Rest bekam eine neutrale Auswahl präsentiert.
Mit diesem Experiment wollten die Wissenschaftler Filterblasen untersuchen, also das Phänomen, dass Menschen durch algorithmische Empfehlungen vor allem Inhalte sehen, die ihren bereits bestehenden Standpunkt verstärken.
In einem weiteren Experiment durften die Testpersonen die Videos nicht mehr auswählen, sondern bekamen sie in einer voreingestellten Reihenfolge zu sehen. Einem Teil der Studienteilnehmer wurden dabei immer extremere Positionen präsentiert, während die Ausrichtung beim Rest konstant blieb. Hier wollten die Forscher das Phänomen der sogenannten „Rabbit Holes“ untersuchen. Dieser Begriff bezeichnet die Theorie, wonach Nutzer durch die Empfehlungen in eine Spirale aus immer extremeren Ansichten geraten.
Kaum Wirkung auf die politische Einstellung
Vor und nach den Experimenten befragten die Forscher die Testpersonen zu ihren politischen Einstellungen. Das Ergebnis ist nun im Magazin „PNAS“ erschienen: An den Einstellungen der Testpersonen änderte sich trotzt Filterblasen und „Rabbit Holes“ so gut wie gar nichts. Das lasse an den Theorien der algorithmischen Polarisierung zweifeln, schreiben die Studienautoren.
Damit deckt sich die Studie mit ähnlichen Untersuchungen auf anderen Plattformen. Im Jahr 2023 fanden Forscher – darunter auch einer der Autoren der aktuellen Studie – keine Auswirkungen von Facebooks Empfehlungsalgorithmus auf die politische Polarisierung.
Die Studie hat Einschränkungen
Also Entwarnung? Nicht ganz. Denn die Youtube-Studie hat Einschränkungen: Josephine Schmitt vom Center for Advanced Internet Studies in Bochum war an der Arbeit nicht beteiligt und hat sie eingeordnet. Die Expertin lobt zwar: „Das Paper überzeugt methodisch durch ein innovatives und komplexes Design, das eine realitätsnahe Youtube-ähnliche Plattform einsetzt.“ Dennoch weist sie darauf hin, dass in dem Experiment künstliche Rahmenbedingungen geschaffen worden seien, welche die wesentlichen Aspekte der realen Youtube-Nutzung nicht vollständig abbildeten. Dazu gehörten beispielsweise die personalisierten Empfehlungen auf Basis der Nutzerdaten. So sei also nicht ausgeschlossen, dass das echte Youtube eine andere Wirkung auf seine Nutzer hat als das Experiment auf die Testpersonen.
Die Autoren selbst schreiben zudem, sie könnten nicht ausschließen, dass es eine kleine, für die Polarisierung durch Algorithmen aber besonders anfällige Gruppe Menschen gebe, die sich mit der Stichprobe einer Studie nicht erfassen lasse. Für Josephine Schmitt bieten vor allem die Ergebnisse des Experiments zu „Rabbit Holes“ Anlass zur Sorge, da viele Teilnehmer angegeben hatten, durch zunehmend extremere Inhalte „etwas Neues“ zu lernen. „Dies könnte bedeuten, dass solche Inhalte, auch wenn sie nicht sofort die Meinung ändern, langfristig die Wahrnehmung oder das Verständnis bestimmter Themen beeinflussen könnten“, sagt die Expertin.
Kann man sich in 23 Minuten radikalisieren?
Gerade die kurzen Zeiträume, in denen die Testpersonen mit der Plattform zu tun hatten, stellen eine Einschränkung dar. Nicole Krämer, die das Fachgebiet Sozialpsychologie: Medien und Kommunikation an der Universität Duisburg-Essen leitet, hebt hervor, dass diese Interaktion in der Studie durchschnittlich nur 23 Minuten gedauert hat. „Eine Anpassung der Meinung ist auf dieser Basis selbst mit dem am stärksten polarisierenden Algorithmus nicht erwartbar“, sagt sie.
Generell sei es nicht besonders überraschend, dass durch einen Vorschlagsalgorithmus keine stärkere Meinungspolarisierung erfolgt, sagt Krämer. Verschieden aufgebaute Studien hätten mittlerweile allerdings gezeigt, dass „Filter Bubbles“ nicht so stark entstehen und wirken wie zunächst angenommen.
Aber wie stark wirken sie denn nun wirklich? Das kann die Studie aufgrund ihrer Einschränkungen nicht beantworten. Der Einfluss von Internetplattformen auf die Menschen ist komplex. Experimente können ihn nicht in seiner Gänze ergründen. Oder wie die Studienautoren selbst mit Verweis auf den Kommentar von Zeynep Tufekci schreiben: „Natürlich ist die Situation, die wir mit unserem experimentellen Design testen können, in vielerlei Hinsicht nicht die Gesamtheit der Geschichte, die Tufekci und andere beschreiben.“