Google ha fatto causa per i dati sulle vittime pubblicati dall’intelligenza artificiale dai file Epstein

7

Una causa collettiva accusa Google di aver pubblicato in modo improprio informazioni personali sensibili sulle vittime di Jeffrey Epstein, anche dopo che il Dipartimento di Giustizia (DOJ) ha riconosciuto e rimosso gli stessi dati dal proprio sito web. La causa sostiene che gli strumenti di intelligenza artificiale di Google hanno continuato a ospitare e persino a facilitare il contatto diretto con le vittime, nonostante le ripetute richieste di rimozione.

Il problema: redazione difettosa e persistenza dell’intelligenza artificiale

La questione principale deriva dal rilascio di documenti relativi a Epstein in seguito all’approvazione dell’Epstein Files Transparency Act lo scorso anno. Secondo quanto riferito, le revisioni iniziali da parte del Dipartimento di Giustizia erano insufficienti, lasciando scoperte le identità delle vittime e talvolta proteggendo gli accusati. Anche se da allora il Dipartimento di Giustizia ha corretto questi errori, il danno si è diffuso quando l’intelligenza artificiale di Google ha cancellato i dati non oscurati.

La causa sostiene che Google non solo non ha rimosso le informazioni, che includono nomi completi, dettagli di contatto e città residenziali, ma ha anche amplificato attivamente il danno. L’intelligenza artificiale avrebbe generato un collegamento cliccabile che consentiva di inviare e-mail dirette a un querelante.

Perché è importante: responsabilità e privacy dell’IA

Questo caso evidenzia una crescente preoccupazione sul ruolo dell’intelligenza artificiale nel perpetuare il danno. A differenza di altri modelli di intelligenza artificiale come ChatGPT, Claude e Perplexity, che secondo quanto riferito non hanno pubblicato i dati delle vittime durante i test, l’intelligenza artificiale di Google avrebbe conservato e diffuso informazioni sensibili.

Ciò è significativo per diversi motivi :

  • L’intelligenza artificiale non è neutrale : elabora e distribuisce attivamente le informazioni, il che significa che può esacerbare i fallimenti esistenti in materia di privacy.
  • Responsabilità nell’era dell’intelligenza artificiale : le aziende tecnologiche potrebbero trovarsi ad affrontare crescenti pressioni legali per garantire che i loro strumenti non amplificano i danni.
  • La velocità di replica : una volta che i dati sono disponibili, anche se corretti alla fonte, l’intelligenza artificiale può ripubblicarli rapidamente.

Precedenti problemi legali di Google

Questa causa si aggiunge alle recenti sfide legali di Google. Una giuria di Los Angeles ha recentemente ritenuto sia Meta che YouTube, di proprietà di Google, responsabili della progettazione di prodotti che creano dipendenza e danneggiano i bambini, dando priorità al coinvolgimento rispetto al benessere degli utenti. Questo modello suggerisce una tendenza più ampia che vede le aziende tecnologiche sottoposte a controllo per aver dato priorità alla crescita rispetto alla sicurezza.

Al momento, Google non ha commentato pubblicamente l’ultima causa. Se i querelanti prevarranno, questo processo potrebbe stabilire importanti precedenti per la protezione della privacy in un’era in cui l’intelligenza artificiale accelera la diffusione di dati sensibili.