La Chine se prépare à mettre en œuvre la première réglementation mondiale ciblant spécifiquement les effets émotionnels et psychologiques des chatbots à intelligence artificielle. Les nouvelles règles, décrites dans un projet de proposition de l’Administration du cyberespace, visent à prévenir les contenus préjudiciables et à atténuer les risques tels que la dépendance émotionnelle et l’addiction.
Contrôles stricts sur les interactions avec les chatbots
La politique proposée comprend le consentement obligatoire du tuteur pour les mineurs interagissant avec des compagnons IA et des mesures strictes de vérification de l’âge. Il sera interdit aux chatbots de générer du contenu lié au jeu, à l’obscénité, à la violence, au suicide ou à l’automutilation. Les entreprises technologiques seront également tenues d’établir des protocoles de remontée d’informations qui relient les utilisateurs en détresse à des modérateurs humains et signalent les conversations potentiellement dangereuses aux parents ou tuteurs.
Cette approche va au-delà du simple filtrage de contenu. Les réglementations se concentrent sur la sécurité émotionnelle, en surveillant les discussions pour détecter tout signe d’attachement malsain ou de comportement addictif. L’objectif est de garantir que les interactions de l’IA n’affectent pas négativement le bien-être mental des utilisateurs.
Implications mondiales et parallèles
Cette décision positionne la Chine comme un pionnier dans la réglementation des outils d’IA anthropomorphiques, des systèmes conçus pour simuler la personnalité humaine et engager émotionnellement les utilisateurs à travers divers médias. Les règles s’appliqueront à toute IA qui imite l’interaction humaine, qu’elle soit basée sur du texte, une image, un audio ou une vidéo.
Des dispositions similaires existent dans le SB 243 récemment adopté par la Californie, qui renforce également les restrictions de contenu et impose des avertissements lorsque les utilisateurs interagissent avec une IA. Cependant, certains experts affirment que même la loi californienne ne va pas assez loin pour protéger pleinement les mineurs.
L’approche américaine et la course à l’IA
Le gouvernement fédéral américain a adopté une position différente, l’administration Trump retardant la réglementation de l’IA au niveau des États. L’argument est qu’une surveillance accrue entravera l’innovation nationale et permettra à la Chine de prendre la tête de la course mondiale à l’IA. Le financement fédéral est refusé aux États qui renforcent la surveillance de l’IA, donnant la priorité à un « cadre national sur la sécurité de l’IA ».
Cette divergence d’approche met en évidence la tension croissante entre innovation et sécurité dans le domaine en évolution rapide de l’intelligence artificielle. Les réglementations proactives de la Chine suggèrent une volonté de donner la priorité au bien-être des utilisateurs, quitte à freiner certaines avancées technologiques. La stratégie américaine, quant à elle, donne la priorité au maintien d’un avantage concurrentiel.
Les implications de ces différentes stratégies restent à voir, mais la décision de la Chine constitue une étape importante vers un paysage de l’IA plus réglementé.























