Social Media: Die heimtückische Macht der Algorithmen
Eine aktuelle Studie zeigt, wie der Social-Media-Feed die politische Meinungsbildung beeinflusst- insbesondere auf der Plattform X.
Wie kleine Änderungen im Social-Media-Feed politische Gefühle beeinflussen. Eine Studie zeigt, wie Algorithmen emotional Polarisieren.
Foto: Smarterpix/sam741002
Die durch die Stanford University geleitete Forschung, veröffentlicht in Science, befasst sich vor allem mit der Plattform X (ehemals Twitter). Untersucht wird, wie algorithmische Feeds zur politischen Lagerbildung beitragen.
- Der X-Feed beeinflusst politische Gefühle spürbar.
- Kleine Algorithmus-Änderungen reichen bereits aus.
- Grundüberzeugungen blieben stabil, nur Gefühle änderten sich.
- Für Deutschland nur begrenzt übertragbar, Grundmechanismus aber ähnlich.
- Studie hat Grenzen: nicht repräsentativ, KI erkennt nur klare Polarisierung, nur Kurzzeitwirkung.
Inhaltsverzeichnis
Mehr Tweeds, mehr Polarisierung
Die Forschenden konnten nachweisen, dass Nutzerinnen und Nutzer, die mehr polarisierende Beiträge im oberen Teil ihres Feeds sehen, sich am Ende der Woche deutlich kälter gegenüber der jeweils anderen politischen Seite fühlen.
Wird dieser Inhalt nach hinten sortiert, sinkt die emotionale Distanz sogar leicht.
So funktionierte das Experiment
Um diese Wirkung messbar zu machen, nutzte das Forschungsteam eine selbst entwickelte Browser-Erweiterung. Mehr als 1000 Personen in den USA installierten das Tool, das den eigenen X-Feed unbemerkt umsortierte.
Das KI-System dahinter erkannte in Echtzeit, welche Beiträge als polarisierend einzustufen sind. Die Einordnung beruhte auf Kriterien des Pew Research Center sowie auf weiteren Studien zu antidemokratischen Haltungen und parteilicher Feindseligkeit.
Die Studie lief zehn Tage lang im Wahlkampfjahr 2024. Während der Erhebung sowie davor und danach bewerteten die Teilnehmenden, die sich selbst entweder zu den Demokraten oder den Republikanern zuordnen, ihre Gefühle gegenüber Anhängerinnen und Anhängern der jeweils anderen Partei.
Emotionale Distanz wächst rasant
Das Ergebnis: Schon minimale Änderungen am Algorithmus reichen aus, um die Stimmung zwischen politischen Lagern spürbar zu verschieben.
- Mehr polarisierende Inhalte früh im Feed führen zu einer stärkeren emotionalen Abkühlung gegenüber politischen Gegnern.
- Weniger polarisierende Inhalte führen zu einer leichten Annäherung
Die Grundüberzeugung änderte sich während des Experiments zwar nicht, doch die emotionale Temperatur zwischen den Lagern verschob dich deutlich.
Dr. Josephine Schmitt, Wissenschaftliche Koordinatorin am Center for Advanced Internet Studies (CAIS), bewertet die Studienergebnisse wie folgt:
Die Studie zeigt robuste, teils recht starke Effekte auf affektive Polarisierung in unterschiedlichen politischen Lagern, und zwar schon durch relativ kleine Veränderungen im Feed. Die Studie macht damit deutlich, dass schon kleine algorithmische Eingriffe messbar die Gefühle gegenüber der politischen Gegenseite verschieben.
Warum die Studie wichtig ist
Durch das Browser-Add-on konnten die Forschenden den angezeigten Feed ganz ohne Unterstützung der Plattform verändern. Dadurch wurde eine unabhängige Überprüfung der Wirkung möglich.
Zudem bestätigt die Studie eine gängige Forschungsmeinung: Social-Media-Feeds sind nicht neutral. Sie entscheiden, welche Themen und Emotionen sichtbar werden und welche Dynamiken das in politischen Debatten auslösen kann.
Übertragbarkeit auf Deutschland
Auf Deutschland sind die Ergebnisse jedoch nur bedingt übertragbar. Hier gibt es kein klares Zwei-Parteien-System wie in den USA, sondern viele Parteien und deutlich mehr politische Zwischentöne. Außerdem spielt X im deutschen Alltag eine viel kleinere Rolle, was die direkte Wirkung abschwächt.
Das Grundprinzip bleibt jedoch bestehen: Schon kleine Änderungen im Social-Media-Feed können beeinflussen, wie Menschen über andere politische Gruppen denken und fühlen.
Grenzen und offen gebliebene Fragen
Obwohl die Studie deutliche Hinweise liefert, sind ihre Ergebnisse mit Vorsicht zu interpretieren. Die Teilnehmenden waren ausschließlich aktive, technisch versierte Nutzerinnen und Nutzer der Plattform X. Sie haben ihren eigenen Feed durch eine lange Nutzung aufgebaut und dieser unterscheidet sich individuell von anderen Nutzern. Damit ist die Stichprobe nicht repräsentativ für die gesamte Bevölkerung oder selbst für alle X-Nutzer.
Zudem unterscheidet die im Experiment eingesetzte KI nur deutlich erkennbare Formen von „polarisierender Sprache“. Subtilere Varianten — etwa Ironie, sarkastische Kommentare oder dezente Abwertungen — bleiben ungesehen.
Langfristige Wirkung noch unerforscht
Ein weiterer Punkt: Die Studie erfasst nur kurzfristige Effekte über einen Zeitraum von zehn Tagen im Rahmen eines Wahlkampfs. Wie sich Algorithmen und Feeds über Wochen, Monate oder Jahre auf Einstellungen, Gefühle und das soziale Klima auswirken, wird nicht berücksichtigt.
Schließlich darf nicht vergessen werden, dass Nutzerinnen und Nutzer in der Realität nicht nur passiv Inhalte konsumieren. Viele interagieren, teilen, kommentieren, folgen anderen oder entfolgen. All das kann die Wirkung von Feed-Sortierung verändern.
Ein Beitrag von: