Un nuevo estudio de las universidades de Stanford, Washington y Northeastern demuestra cómo los algoritmos de las redes sociales pueden alterar de manera mensurable las actitudes políticas de los usuarios. Los investigadores desarrollaron una extensión de navegador que reclasifica las publicaciones en X (anteriormente Twitter) según su nivel de hostilidad partidista. Los resultados, publicados en Science, muestran que incluso los cambios temporales en la exposición algorítmica pueden cambiar la percepción pública de los grupos políticos opuestos.
Cómo funcionó el estudio
En el estudio participaron más de 1200 participantes que dieron su consentimiento para que se modificaran sus feeds X durante diez días antes de las elecciones presidenciales de EE. UU. de 2024. La mitad del grupo utilizó una extensión de navegador diseñada para rebajar el contenido altamente divisivo (publicaciones que pedían violencia o acciones extremas contra opositores políticos) y los empujó hacia abajo en sus feeds. La otra mitad usó una extensión que aumentó la exposición a dicho contenido.
El hallazgo clave es que simplemente alterar la priorización algorítmica tuvo un efecto significativo. Los participantes expuestos a contenidos menos polarizadores mostraron una mejora mensurable en sus actitudes hacia el partido contrario. Este cambio, con un promedio de dos puntos en una escala de 100 puntos, equivale aproximadamente a tres años de cambios naturales en la polarización política estadounidense.
Efectos bipartidistas e impacto emocional
El cambio de actitud fue consistente en todo el espectro político ; Tanto los usuarios liberales como los conservadores mostraron cambios similares. Los investigadores también observaron una respuesta emocional inmediata: los participantes expuestos a contenido menos hostil informaron niveles más bajos de ira y tristeza mientras usaban la plataforma. Sin embargo, estos efectos emocionales no persistieron una vez finalizado el estudio.
Implicaciones para la regulación de plataformas
Esta investigación destaca que las plataformas tienen el poder de reducir la polarización mediante ajustes algorítmicos. Está demostrado que bajar el contenido extremo puede mejorar las actitudes hacia los grupos opuestos. El estudio también señala una solución alternativa notable: estas intervenciones se pueden implementar “sin colaboración de la plataforma”, lo que significa que los investigadores y desarrolladores independientes pueden modificar los feeds directamente a través de extensiones del navegador.
Esto sugiere una alternativa a depender de las empresas de redes sociales para autorregularse. La herramienta probada podría adaptarse a otras plataformas, aunque el estudio reconoce que su forma actual se limita al acceso X basado en navegador (no afecta a la aplicación móvil).
Quedan preguntas a largo plazo
El estudio no mide el impacto duradero de la reducción de la exposición a contenido divisivo. Aún no está claro si estos cambios de actitud persistirían en el tiempo o si los usuarios eventualmente volverían a sus prejuicios anteriores. Sin embargo, los hallazgos ofrecen un vínculo directo y mensurable entre el diseño algorítmico y la polarización política.
El estudio proporciona evidencia convincente de que las plataformas de redes sociales no son árbitros neutrales sino que moldean activamente las percepciones públicas. Los ajustes algorítmicos pueden ser una herramienta poderosa para mitigar la hostilidad política, aunque se necesita más investigación para comprender los efectos a largo plazo.







































