Eine neue Studie der Universitäten Stanford, Washington und Northeastern zeigt, wie Social-Media-Algorithmen die politischen Einstellungen der Nutzer messbar verändern können. Forscher haben eine Browsererweiterung entwickelt, die Beiträge auf X (ehemals Twitter) basierend auf ihrem Grad an parteipolitischer Feindseligkeit neu einordnet. Die in Science veröffentlichten Ergebnisse zeigen, dass selbst vorübergehende Änderungen der algorithmischen Präsenz die öffentliche Wahrnehmung gegnerischer politischer Gruppen verändern können.
Wie die Studie funktionierte
An der Studie nahmen über 1.200 Teilnehmer teil, die einer zehntägigen Änderung ihrer X-Feeds vor der US-Präsidentschaftswahl 2024 zustimmten. Die Hälfte der Gruppe nutzte eine Browsererweiterung, die darauf ausgelegt war, stark spaltende Inhalte – Beiträge, die zu Gewalt oder extremen Aktionen gegen politische Gegner aufrufen – herabzustufen und sie in ihren Feeds nach unten zu drängen. Die andere Hälfte nutzte eine Erweiterung, die die Präsenz solcher Inhalte erhöhte.
Die wichtigste Erkenntnis ist, dass allein die Änderung der algorithmischen Priorisierung einen signifikanten Effekt hatte. Teilnehmer, die weniger polarisierenden Inhalten ausgesetzt waren, zeigten eine messbare Verbesserung ihrer Einstellung gegenüber der Gegenpartei. Diese Veränderung, die im Durchschnitt zwei Punkte auf einer 100-Punkte-Skala beträgt, entspricht etwa drei Jahren natürlicher Verschiebungen der politischen Polarisierung in den USA.
Überparteiliche Effekte und emotionale Auswirkungen
Der Einstellungswandel war im gesamten politischen Spektrum konsistent ; Sowohl liberale als auch konservative Nutzer zeigten ähnliche Veränderungen. Die Forscher beobachteten auch eine unmittelbare emotionale Reaktion: Teilnehmer, die weniger feindseligen Inhalten ausgesetzt waren, berichteten über ein geringeres Maß an Wut und Traurigkeit, während sie die Plattform nutzten. Diese emotionalen Auswirkungen hielten jedoch nach Abschluss der Studie nicht an.
Implikationen für die Plattformregulierung
Diese Untersuchung zeigt, dass Plattformen die Macht haben, die Polarisierung durch algorithmische Anpassungen zu reduzieren. Das Herabstufen extremer Inhalte kann nachweislich die Einstellung gegenüber gegnerischen Gruppen verbessern. Die Studie weist auch auf einen bemerkenswerten Workaround hin: Diese Eingriffe können „ohne Zusammenarbeit mit der Plattform“ implementiert werden, was bedeutet, dass Forscher und unabhängige Entwickler Feeds direkt über Browsererweiterungen ändern können.
Dies deutet auf eine Alternative zum Vertrauen auf die Selbstregulierung von Social-Media-Unternehmen hin. Das getestete Tool könnte an andere Plattformen angepasst werden, obwohl die Studie anerkennt, dass seine aktuelle Form auf den browserbasierten X-Zugriff beschränkt ist (die mobile App ist davon nicht betroffen).
Langfristige Fragen bleiben bestehen
Die Studie misst nicht die dauerhaften Auswirkungen einer geringeren Exposition gegenüber spaltenden Inhalten. Es bleibt unklar, ob diese Einstellungsänderungen über die Zeit anhalten würden oder ob die Nutzer irgendwann zu ihren früheren Vorurteilen zurückkehren würden. Dennoch bieten die Ergebnisse einen direkten, messbaren Zusammenhang zwischen algorithmischem Design und politischer Polarisierung.
Die Studie liefert überzeugende Beweise dafür, dass Social-Media-Plattformen keine neutralen Schiedsrichter sind, sondern die öffentliche Wahrnehmung aktiv prägen. Algorithmische Anpassungen können ein wirksames Instrument zur Milderung politischer Feindseligkeiten sein, allerdings sind weitere Untersuchungen erforderlich, um die langfristigen Auswirkungen zu verstehen.







































