China se está preparando para implementar las primeras regulaciones del mundo dirigidas específicamente a los efectos emocionales y psicológicos de los chatbots de inteligencia artificial. Las nuevas reglas, descritas en un borrador de propuesta de la Administración del Ciberespacio, tienen como objetivo prevenir contenidos dañinos y mitigar riesgos como la dependencia emocional y la adicción.
Controles estrictos sobre las interacciones de chatbot
La política propuesta incluye el consentimiento obligatorio del tutor para los menores que interactúan con compañeros de IA y estrictas medidas de verificación de edad. Se prohibirá a los chatbots generar contenido relacionado con juegos de azar, obscenidad, violencia, suicidio o autolesiones. Las empresas de tecnología también deberán establecer protocolos de escalada que conecten a los usuarios en peligro con moderadores humanos y señalen conversaciones potencialmente peligrosas a los padres o tutores.
Este enfoque va más allá del simple filtrado de contenidos. Las regulaciones se centran en la seguridad emocional, monitoreando los chats en busca de signos de apego poco saludable o comportamiento adictivo. El objetivo es garantizar que las interacciones con la IA no afecten negativamente el bienestar mental de los usuarios.
Implicaciones globales y paralelos
Esta medida posiciona a China como pionera en la regulación de herramientas de IA antropomórficas: sistemas diseñados para simular la personalidad humana e involucrar emocionalmente a los usuarios a través de diversos medios. Las reglas se aplicarán a cualquier IA que imite la interacción humana, independientemente de si está basada en texto, imagen, audio o video.
Existen disposiciones similares en la SB 243 recientemente aprobada en California, que también refuerza las restricciones de contenido y exige advertencias de que los usuarios están interactuando con una IA. Sin embargo, algunos expertos sostienen que ni siquiera la ley de California va lo suficientemente lejos como para proteger completamente a los menores.
El enfoque estadounidense y la carrera de la IA
El gobierno federal de Estados Unidos ha adoptado una postura diferente: la administración Trump retrasó la regulación de la IA a nivel estatal. El argumento es que una mayor supervisión obstaculizará la innovación nacional y permitirá a China tomar la delantera en la carrera mundial de la IA. Se están reteniendo fondos federales a los estados que fortalecen la supervisión de la IA, dando prioridad a un “marco nacional sobre seguridad de la IA”.
Esta divergencia de enfoque resalta la creciente tensión entre innovación y seguridad en el campo de la inteligencia artificial en rápida evolución. Las regulaciones proactivas de China sugieren una voluntad de priorizar el bienestar de los usuarios, incluso si eso significa frenar ciertos avances tecnológicos. Mientras tanto, la estrategia estadounidense prioriza mantener una ventaja competitiva.
Las implicaciones de estas diferentes estrategias aún están por verse, pero la medida de China es un paso significativo hacia un panorama de IA más regulado.























