Новое исследование, проведенное учеными из Стэнфордского, Вашингтонского и Северо-восточного университетов, демонстрирует, как алгоритмы социальных сетей могут измеримо изменять политические взгляды пользователей. Исследователи разработали расширение для браузера, которое пересортировывает публикации в X (ранее Twitter) в зависимости от уровня партийной вражды. Результаты, опубликованные в журнале Science, показывают, что даже временные изменения в алгоритмической выдаче могут сдвинуть общественное восприятие противоборствующих политических групп.
Как проводилось исследование
В исследовании приняли участие более 1200 человек, которые согласились на изменение своей ленты X в течение десяти дней перед президентскими выборами в США в 2024 году. Половина группы использовала расширение для браузера, предназначенное для понижения в выдаче крайне поляризующего контента – публикаций, призывающих к насилию или экстремальным действиям против политических оппонентов. Другая половина использовала расширение, которое увеличивало воздействие такого контента.
Ключевой вывод заключается в том, что простая перестановка приоритетов в алгоритмах оказала значительное влияние. Участники, подвергавшиеся воздействию менее радикального контента, продемонстрировали измеримое улучшение своего отношения к оппонентам. Это изменение, в среднем на два балла по 100-балльной шкале, эквивалентно примерно трем годам естественной поляризации в американской политике.
Двухпартийный эффект и эмоциональное воздействие
Сдвиг в отношении был последовательным во всем политическом спектре ; как либералы, так и консерваторы продемонстрировали аналогичные изменения. Исследователи также отметили немедленную эмоциональную реакцию: участники, подвергавшиеся воздействию менее враждебного контента, сообщили о более низком уровне гнева и грусти при использовании платформы. Однако эти эмоциональные эффекты не сохранились после завершения исследования.
Последствия для регулирования платформ
Это исследование подчеркивает, что платформы обладают властью для снижения поляризации путем внесения алгоритмических корректировок. Понижение в выдаче экстремального контента может наглядно улучшить отношение к оппонентам. В исследовании также отмечается интересный обходной путь: эти меры могут быть реализованы «без сотрудничества с платформой», то есть исследователи и независимые разработчики могут напрямую изменять ленты через расширения для браузеров.
Это предполагает альтернативу ожиданию саморегулирования со стороны компаний социальных сетей. Протестированный инструмент может быть адаптирован для других платформ, хотя в исследовании признается, что в текущем виде он ограничен доступом к X через браузер (он не влияет на мобильное приложение).
Долгосрочные вопросы остаются без ответа
Исследование не измеряет долгосрочное воздействие снижения воздействия поляризующего контента. Неясно, сохранятся ли эти изменения в отношении со временем или пользователи в конечном итоге вернутся к своим прежним предубеждениям. Тем не менее, результаты предоставляют прямую, измеримую связь между алгоритмическим дизайном и политической поляризацией.
Исследование предоставляет убедительные доказательства того, что платформы социальных сетей не являются нейтральными посредниками, а активно формируют общественное мнение. Алгоритмические корректировки могут быть мощным инструментом для смягчения политической вражды, хотя необходимы дополнительные исследования для понимания долгосрочных последствий.







































