La Cina si sta preparando ad attuare le prime normative al mondo mirate specificamente agli effetti emotivi e psicologici dei chatbot di intelligenza artificiale. Le nuove regole, delineate in una bozza di proposta della Cyberspace Administration, mirano a prevenire contenuti dannosi e mitigare rischi come la dipendenza emotiva e la dipendenza.
Controlli rigorosi sulle interazioni dei chatbot
La politica proposta include il consenso obbligatorio del tutore per i minori che interagiscono con i compagni AI e rigorose misure di verifica dell’età. Ai chatbot sarà vietato generare contenuti relativi al gioco d’azzardo, all’oscenità, alla violenza, al suicidio o all’autolesionismo. Le aziende tecnologiche dovranno inoltre stabilire protocolli di escalation che colleghino gli utenti in difficoltà a moderatori umani e segnalino conversazioni potenzialmente pericolose a genitori o tutori.
Questo approccio va oltre il semplice filtraggio dei contenuti. Le normative si concentrano sulla sicurezza emotiva, monitorando le chat per rilevare segnali di attaccamento malsano o comportamenti di dipendenza. L’obiettivo è garantire che le interazioni dell’intelligenza artificiale non influiscano negativamente sul benessere mentale degli utenti.
Implicazioni globali e parallelismi
Questa mossa posiziona la Cina come pioniere nella regolamentazione degli strumenti di intelligenza artificiale antropomorfa, sistemi progettati per simulare la personalità umana e coinvolgere emotivamente gli utenti attraverso vari media. Le regole si applicheranno a qualsiasi intelligenza artificiale che imiti l’interazione umana, indipendentemente dal fatto che sia basata su testo, immagini, audio o video.
Disposizioni simili esistono nell’SB 243 recentemente approvato in California, che rafforza anche le restrizioni sui contenuti e impone avvisi sugli utenti che interagiscono con un’intelligenza artificiale. Tuttavia, alcuni esperti sostengono che nemmeno la legge della California sia sufficientemente ampia per proteggere pienamente i minori.
L’approccio statunitense e la corsa all’intelligenza artificiale
Il governo federale degli Stati Uniti ha adottato una posizione diversa, con l’amministrazione Trump che ha ritardato la regolamentazione dell’IA a livello statale. La tesi è che una maggiore supervisione ostacolerà l’innovazione interna e consentirà alla Cina di assumere il comando nella corsa globale all’intelligenza artificiale. I finanziamenti federali vengono trattenuti dagli stati che rafforzano la supervisione dell’IA, dando priorità a un “quadro nazionale sulla sicurezza dell’IA”.
Questa divergenza di approccio evidenzia la crescente tensione tra innovazione e sicurezza nel campo in rapida evoluzione dell’intelligenza artificiale. Le normative proattive della Cina suggeriscono la volontà di dare priorità al benessere degli utenti, anche se ciò significa frenare alcuni progressi tecnologici. La strategia statunitense, nel frattempo, dà priorità al mantenimento del vantaggio competitivo.
Le implicazioni di queste diverse strategie restano da vedere, ma la mossa della Cina rappresenta un passo significativo verso un panorama dell’IA più regolamentato.























