Une nouvelle étude des universités de Stanford, de Washington et du Nord-Est démontre comment les algorithmes des médias sociaux peuvent modifier de manière mesurable les attitudes politiques des utilisateurs. Les chercheurs ont développé une extension de navigateur qui reclasse les publications sur X (anciennement Twitter) en fonction de leur niveau d’hostilité partisane. Les résultats, publiés dans Science, montrent que même des changements temporaires dans l’exposition algorithmique peuvent modifier la perception du public à l’égard des groupes politiques opposés.
Comment s’est déroulée l’étude
L’étude a porté sur plus de 1 200 participants qui ont consenti à ce que leurs flux X soient modifiés dix jours avant l’élection présidentielle américaine de 2024. La moitié du groupe a utilisé une extension de navigateur conçue pour déclasser les contenus très controversés (posts appelant à la violence ou à des actions extrêmes contre des opposants politiques), les repoussant plus bas dans leurs flux. L’autre moitié a utilisé une extension qui augmentait l’exposition à un tel contenu.
La principale conclusion est que la simple modification de la priorisation algorithmique a eu un effet significatif. Les participants exposés à un contenu moins polarisant ont montré une amélioration mesurable de leur attitude envers la partie adverse. Ce changement, d’une moyenne de deux points sur une échelle de 100, équivaut à environ trois années de changements naturels dans la polarisation politique américaine.
Effets bipartisan et impact émotionnel
Le changement d’attitude était consistant dans tout le spectre politique ; les utilisateurs libéraux et conservateurs ont montré des changements similaires. Les chercheurs ont également observé une réponse émotionnelle immédiate : les participants exposés à des contenus moins hostiles ont signalé des niveaux de colère et de tristesse moindres lors de l’utilisation de la plateforme. Cependant, ces effets émotionnels n’ont pas persisté après la fin de l’étude.
Implications pour la réglementation des plateformes
Cette recherche souligne que les plateformes ont le pouvoir de réduire la polarisation grâce à des ajustements algorithmiques. Les contenus extrêmes déclassés peuvent manifestement améliorer les attitudes envers les groupes opposés. L’étude note également une solution de contournement notable : ces interventions peuvent être mises en œuvre « sans collaboration avec une plateforme », ce qui signifie que les chercheurs et les développeurs indépendants peuvent modifier les flux directement via des extensions de navigateur.
Cela suggère une alternative au recours aux sociétés de médias sociaux pour s’autoréguler. L’outil testé pourrait être adapté à d’autres plateformes, même si l’étude reconnaît que sa forme actuelle est limitée à l’accès X par navigateur (cela n’affecte pas l’application mobile).
Des questions à long terme demeurent
L’étude ne mesure pas l’impact durable d’une exposition réduite aux contenus qui divisent. Il reste difficile de savoir si ces changements d’attitude persisteront dans le temps ou si les utilisateurs finiront par revenir à leurs préjugés antérieurs. Néanmoins, les résultats offrent un lien direct et mesurable entre la conception algorithmique et la polarisation politique.
L’étude fournit des preuves irréfutables que les plateformes de médias sociaux ne sont pas des arbitres neutres mais façonnent activement les perceptions du public. Les ajustements algorithmiques peuvent être un outil puissant pour atténuer l’hostilité politique, même si des recherches supplémentaires sont nécessaires pour comprendre les effets à long terme.
