Un estudio reciente de la Universidad de Cambridge revela que los juguetes con IA diseñados para niños pequeños pueden malinterpretar las señales emocionales y obstaculizar el juego crucial para el desarrollo, lo que genera preocupación entre investigadores y padres. Los hallazgos sugieren que, si bien estos juguetes se comercializan como herramientas educativas, sus capacidades actuales plantean riesgos para el aprendizaje emocional y social de los niños.
El problema de la IA en el tiempo de juego
Los investigadores examinaron cómo la IA impacta el desarrollo de la primera infancia a través de un enfoque de métodos mixtos: una encuesta en línea de 39 padres, grupos focales con nueve profesionales del desarrollo infantil, un taller en persona con 19 líderes de organizaciones benéficas y tiempo de juego monitoreado con 14 niños y 11 cuidadores utilizando el juguete Gabbo de Curio Interactive, habilitado para chatbot.
El estudio encontró que estos juguetes de IA a menudo no reconocen con precisión las emociones de los niños y, a veces, responden de manera inapropiada. Por ejemplo, cuando un niño expresaba afecto (“Te amo”), el juguete respondía con un aviso robótico sobre el cumplimiento de las pautas, lo que ilustra una desconexión crítica entre las emociones humanas y la respuesta de la IA. Esto plantea preguntas sobre cómo los niños podrían establecer relaciones con estos dispositivos y el potencial de una comprensión emocional distorsionada.
Brechas regulatorias y supervisión parental
El informe insta a una regulación más clara de los juguetes con IA, incluido el etiquetado obligatorio de sus capacidades y políticas de privacidad. Los investigadores recomiendan que los padres mantengan estos dispositivos en espacios compartidos donde se puedan monitorear las interacciones. Si bien los juguetes de IA pueden favorecer las habilidades de lenguaje y comunicación, el estudio muestra que las respuestas inapropiadas o confusas de la IA son comunes.
Jenny Gibson, profesora involucrada en la investigación, cuestionó las prioridades de la industria:
“¿Qué motivaría [a los inversores en tecnología] a hacer lo correcto con los niños… para poner a los niños por delante de las ganancias?”
Por qué esto es importante
El auge de los juguetes con inteligencia artificial es parte de una tendencia más amplia hacia dispositivos cada vez más conectados comercializados para niños, lo que genera preocupaciones sobre la privacidad de los datos, el desarrollo emocional y la sustitución de la interacción humana. Esto no es algo aislado; Las demandas contra empresas de inteligencia artificial ya alegan que los chatbots pueden afectar negativamente la seguridad psicológica de los jóvenes, a veces incluso fomentando comportamientos dañinos.
La falta de investigaciones sólidas sobre los efectos de la IA en los niños es alarmante. Las empresas que fabrican estos productos deben colaborar directamente con expertos en desarrollo infantil para garantizar interacciones seguras y beneficiosas. Curio Interactive, el fabricante del juguete Gabbo, estaba al tanto del estudio y supuestamente lo apoyó, pero no respondió de inmediato a las solicitudes de comentarios.
El futuro de la IA en la infancia
A medida que más juguetes integran IA y conectividad a Internet, los riesgos aumentan. Sin una regulación cuidadosa y la supervisión de los padres, estos dispositivos podrían convertirse en grandes peligros para la seguridad, lo que podría obstaculizar el desarrollo emocional de los niños y erosionar las conexiones con el mundo real. El entusiasmo actual por los juguetes de IA, combinado con una investigación limitada, exige una seria atención tanto de la industria como de los padres.
