Il segreto del terapista dell’intelligenza artificiale: quando i chatbot diventano testimoni legali

10

Un recente caso che coinvolge un presunto sospettato di incendio doloso e le sue conversazioni con il chatbot ChatGPT evidenzia un incombente dilemma legale: come proteggere la privacy delle conversazioni tenute con un’intelligenza artificiale sempre più sofisticata?

Jonathan Rinderknecht deve affrontare le accuse relative a un devastante incendio in California. I pubblici ministeri sostengono che le interazioni online tra il signor Rinderknecht e ChatGPT, comprese le discussioni sull’incendio di una Bibbia e sulla creazione di un’immagine distopica raffigurante un incendio, rivelano la sua intenzione di appiccare l’incendio.

Sebbene il signor Rinderknecht si dichiari non colpevole, questo caso solleva domande inquietanti sulle ramificazioni legali di conversazioni sempre più intime con sistemi di intelligenza artificiale come ChatGPT. Questi programmi sono progettati per imitare il dialogo umano: “ascoltano”, offrono risposte ragionate e influenzano persino i processi mentali degli utenti. Molte persone si rivolgono a questi chatbot per discussioni riservate su argomenti troppo delicati o personali per essere condivisi con persone reali.

Questa tendenza crescente richiede un nuovo quadro giuridico per proteggere la privacy degli utenti nell’ambito delle interazioni con l’intelligenza artificiale. Il giurista Greg Mitchell dell’Università della Virginia descrive adeguatamente la necessità di questa protezione: “la riservatezza deve essere assolutamente essenziale per il funzionamento della relazione”.

Senza di essa, gli utenti inevitabilmente si autocensureranno, ostacolando i benefici stessi che queste tecnologie offrono per il supporto alla salute mentale, la risoluzione di problemi legali e finanziari e persino la scoperta di sé. Immaginate l’effetto agghiacciante su un utente che cerca conforto da un terapista dell’intelligenza artificiale se temesse che quelle rivelazioni profondamente personali potrebbero essere usate come arma contro di lui in tribunale.

Attualmente, le dottrine legali esistenti come la Dottrina delle terze parti trattano le informazioni condivise con i servizi online come intrinsecamente non private. Questo approccio non riesce a tenere conto della natura unica delle interazioni con i sofisticati sistemi di intelligenza artificiale, che funzionano sempre più come confidenti piuttosto che come semplici archivi di dati.

Pertanto, è necessario un nuovo concetto giuridico: quello che propongo si chiama “privilegio di interazione dell’IA”. Ciò rispecchierebbe le tutele legali esistenti come la riservatezza avvocato-cliente o medico-paziente salvaguardando le comunicazioni con l’intelligenza artificiale per scopi come la ricerca di consigli o supporto emotivo.

Tuttavia, questo privilegio non sarebbe assoluto. Dovrebbe includere:

  • Conversazioni protette: le interazioni con l’IA destinate a consulenza legale o elaborazione emotiva dovrebbero essere protette dalla divulgazione forzata in tribunale, a meno che non vi siano circostanze eccezionali. Gli utenti potrebbero attivare questa protezione attraverso le impostazioni dell’app o rivendicarla durante un procedimento legale se il contesto lo giustifica.
  • Obbligo di avvisare: Analogamente ai terapisti obbligati a segnalare minacce imminenti, le IA dovrebbero essere legalmente obbligate a rivelare i pericoli prevedibili posti dagli utenti a se stessi o ad altri.

  • Eccezione per crimini e frodi: Le comunicazioni che coinvolgono la pianificazione o l’esecuzione di attività criminali rimarranno rilevabili sotto controllo giudiziario.

Applicando questo quadro al caso Rinderknecht: sebbene la sua domanda iniziale sugli incendi causati dall’intelligenza artificiale non possa beneficiare di protezione (simile a una ricerca online), le sue osservazioni confessionali sull’incendio di una Bibbia potrebbero essere protette come emotivamente rivelatrici e non direttamente indicative di intenti criminali al momento della divulgazione.

Stabilire i privilegi di interazione dell’IA è fondamentale per promuovere la fiducia in questa tecnologia in rapida espansione. Segnerebbe che le interazioni aperte e oneste con le IA sono apprezzate, consentendo alle persone di sfruttare il proprio potenziale di auto-miglioramento e di risoluzione dei problemi senza timore di ripercussioni legali per la schietta introspezione digitale. Senza tali tutele, rischiamo di soffocare i benefici stessi offerti da questi potenti strumenti, lasciando i cittadini timorosi anche solo di pensare liberamente nella sfera digitale.