Giornalista sospeso per aver fabbricato citazioni con l’intelligenza artificiale

4

Un importante giornalista europeo è stato temporaneamente sospeso dopo aver ammesso di aver pubblicato nei suoi articoli decine di citazioni generate dall’intelligenza artificiale come dichiarazioni autentiche. Peter Vandermeersch, ex amministratore delegato di Mediahuis Ireland e attualmente ricercatore di giornalismo, ha confessato di utilizzare strumenti di intelligenza artificiale come ChatGPT e Perplexity per riassumere i rapporti, ignaro che i sistemi fabbricavano dichiarazioni e le attribuivano a individui reali.

Svelata la fabbricazione

Un’indagine del quotidiano olandese NRC ha rivelato che Vandermeersch ha inserito citazioni generate dall’intelligenza artificiale in 15 dei 53 articoli pubblicati su due siti web di Mediahuis. Sette persone citate hanno confermato di non aver mai rilasciato le dichiarazioni loro attribuite. Queste citazioni inventate sono state presentate come autentiche, sollevando preoccupazioni sull’integrità giornalistica e sull’affidabilità dei resoconti assistiti dall’intelligenza artificiale.

Perché è importante

Questo incidente evidenzia una questione critica nel giornalismo moderno: il pericolo di contenuti generati dall’intelligenza artificiale non verificati. Modelli linguistici come ChatGPT sono sempre più capaci di produrre informazioni convincenti ma del tutto false. I giornalisti che si affidano a questi strumenti senza un rigoroso controllo dei fatti rischiano di diffondere disinformazione. Il caso solleva anche interrogativi sulla pressione esercitata sui giornalisti affinché producano contenuti rapidamente, portando potenzialmente a scorciatoie che ne compromettono l’accuratezza.

Confessione di Vandermeersch

Vandermeersch ha ammesso di essersi inizialmente fidato dei risultati dell’intelligenza artificiale, descrivendoli come “citazioni irresistibili” che erano allettanti da usare. Ha scoperto il problema per la prima volta l’anno scorso, ma all’epoca non ha corretto gli errori. Successivamente, il suo entusiasmo per l’intelligenza artificiale diminuì quando si rese conto della sua fallibilità.

“Non è stato solo imprudente, è stato sbagliato”, ha scritto Vandermeersch sul suo blog. “È particolarmente doloroso aver commesso proprio l’errore da cui ho ripetutamente messo in guardia i colleghi: questi modelli linguistici sono così buoni che producono citazioni irresistibili che sei tentato di usare come autore.”

Nonostante la sospensione, Vandermeersch utilizza ancora l’intelligenza artificiale per compiti come la traduzione e il brainstorming, ma con “una fiducia molto meno ingenua”.

Il futuro dell’intelligenza artificiale nel giornalismo

Questo incidente serve da ammonimento per le testate giornalistiche. Sebbene l’intelligenza artificiale possa essere uno strumento prezioso per i giornalisti, la supervisione umana e il controllo dei fatti rimangono essenziali. Il caso sottolinea la necessità di linee guida chiare sull’utilizzo dell’intelligenza artificiale nelle redazioni, nonché di una formazione continua per i giornalisti su come verificare i contenuti generati dall’intelligenza artificiale.

In definitiva, questa controversia dimostra che anche i giornalisti esperti possono cadere preda delle capacità ingannevoli dell’intelligenza artificiale, rafforzando l’importanza fondamentale dello scetticismo e della verifica in un mondo sempre più automatizzato.