Un nuovo studio delle università di Stanford, Washington e Northeastern dimostra come gli algoritmi dei social media possano alterare in modo misurabile gli atteggiamenti politici degli utenti. I ricercatori hanno sviluppato un’estensione del browser che riclassifica i post su X (ex Twitter) in base al loro livello di ostilità di parte. I risultati, pubblicati su Science, mostrano che anche cambiamenti temporanei all’esposizione algoritmica possono spostare la percezione pubblica dei gruppi politici opposti.
Come ha funzionato lo studio
Lo studio ha coinvolto oltre 1.200 partecipanti che hanno acconsentito alla modifica dei loro feed X per dieci giorni prima delle elezioni presidenziali americane del 2024. Metà del gruppo ha utilizzato un’estensione del browser progettata per ridimensionare contenuti altamente controversi – post che incitano alla violenza o azioni estreme contro oppositori politici – spingendoli più in basso nei loro feed. L’altra metà utilizzava un’estensione che aumentava l’esposizione a tali contenuti.
La scoperta chiave è che la semplice alterazione della definizione delle priorità algoritmiche ha avuto un effetto significativo. I partecipanti esposti a contenuti meno polarizzanti hanno mostrato un miglioramento misurabile nel loro atteggiamento nei confronti della parte avversaria. Questo cambiamento, in media di due punti su una scala di 100, equivale a circa tre anni di cambiamenti naturali nella polarizzazione politica americana.
Effetti bipartisan e impatto emotivo
Il cambiamento di atteggiamento è stato coerente in tutto lo spettro politico ; sia gli utenti liberali che quelli conservatori hanno mostrato cambiamenti simili. I ricercatori hanno anche osservato una risposta emotiva immediata: i partecipanti esposti a contenuti meno ostili hanno riportato livelli più bassi di rabbia e tristezza durante l’utilizzo della piattaforma. Tuttavia, questi effetti emotivi non sono persistiti dopo la conclusione dello studio.
Implicazioni per la regolamentazione della piattaforma
Questa ricerca evidenzia che le piattaforme hanno il potere di ridurre la polarizzazione attraverso aggiustamenti algoritmici. Il declassamento dei contenuti estremi può migliorare in modo evidente l’atteggiamento nei confronti dei gruppi avversari. Lo studio rileva anche una notevole soluzione alternativa: questi interventi possono essere implementati “senza collaborazione della piattaforma”, il che significa che ricercatori e sviluppatori indipendenti possono modificare i feed direttamente tramite le estensioni del browser.
Ciò suggerisce un’alternativa all’affidarsi alle società di social media per l’autoregolamentazione. Lo strumento testato potrebbe essere adattato ad altre piattaforme, anche se lo studio riconosce che la sua forma attuale è limitata all’accesso X basato su browser (non influisce sull’app mobile).
Rimangono domande a lungo termine
Lo studio non misura l’impatto duraturo della ridotta esposizione a contenuti controversi. Non è chiaro se questi cambiamenti di atteggiamento persisteranno nel tempo o se gli utenti alla fine torneranno ai loro pregiudizi precedenti. Tuttavia, i risultati offrono un collegamento diretto e misurabile tra la progettazione algoritmica e la polarizzazione politica.
Lo studio fornisce prove convincenti del fatto che le piattaforme di social media non sono arbitri neutrali ma modellano attivamente la percezione del pubblico. Gli aggiustamenti algoritmici possono essere un potente strumento per mitigare l’ostilità politica, anche se sono necessarie ulteriori ricerche per comprendere gli effetti a lungo termine.
