AI Toys : une nouvelle étude met en évidence les problèmes de sécurité des jeunes enfants

20

Une étude récente de l’Université de Cambridge révèle que les jouets basés sur l’IA conçus pour les jeunes enfants peuvent mal interpréter les signaux émotionnels et entraver un jeu développemental crucial, suscitant des inquiétudes parmi les chercheurs et les parents. Les résultats suggèrent que même si ces jouets sont commercialisés comme outils éducatifs, leurs capacités actuelles présentent des risques pour l’apprentissage émotionnel et social des enfants.

Le problème de l’IA en temps de jeu

Les chercheurs ont examiné l’impact de l’IA sur le développement de la petite enfance grâce à une approche à méthodes mixtes : une enquête en ligne auprès de 39 parents, des groupes de discussion avec neuf professionnels du développement de l’enfant, un atelier en personne avec 19 dirigeants d’associations caritatives et un temps de jeu surveillé avec 14 enfants et 11 soignants à l’aide du jouet Gabbo activé par chatbot de Curio Interactive.

L’étude a révélé que ces jouets IA ne parviennent souvent pas à reconnaître avec précision les émotions des enfants**, réagissant parfois de manière inappropriée. Par exemple, lorsqu’un enfant exprimait de l’affection (« Je t’aime »), le jouet répondait par un avertissement robotique concernant le respect des directives, illustrant un décalage critique entre l’émotion humaine et la réponse de l’IA. Cela soulève des questions sur la manière dont les enfants pourraient nouer des relations avec ces appareils et sur le risque de distorsion de la compréhension émotionnelle.

Lacunes réglementaires et surveillance parentale

Le rapport recommande une réglementation plus claire des jouets IA, y compris un étiquetage obligatoire de leurs capacités et des politiques de confidentialité. Les chercheurs recommandent aux parents de conserver ces appareils dans des espaces partagés où les interactions peuvent être surveillées. Bien que les jouets IA puissent soutenir les compétences linguistiques et de communication, l’étude montre que les réponses inappropriées ou déroutantes de l’IA sont courantes.

Jenny Gibson, professeur impliquée dans la recherche, a remis en question les priorités de l’industrie :

« Qu’est-ce qui motiverait [les investisseurs en technologie] à faire ce qu’il faut en faveur des enfants… pour faire passer les enfants avant les profits ? »

Pourquoi c’est important

L’essor des jouets IA s’inscrit dans une tendance plus large vers des appareils de plus en plus connectés commercialisés auprès des enfants, soulevant des inquiétudes concernant la confidentialité des données, le développement émotionnel et le remplacement de l’interaction humaine. Ce n’est pas isolé ; Les poursuites judiciaires contre les sociétés d’IA allèguent déjà que les chatbots peuvent avoir un impact négatif sur la sécurité psychologique des jeunes, encourageant parfois même des comportements nocifs.

Le manque de recherches solides sur les effets de l’IA sur les enfants est alarmant. Les entreprises fabriquant ces produits devraient collaborer directement avec des experts en développement de l’enfant pour garantir des interactions sûres et bénéfiques. Curio Interactive, le fabricant du jouet Gabbo, était au courant de l’étude et aurait soutenu cette étude, mais n’a pas immédiatement répondu aux demandes de commentaires.

L’avenir de l’IA dans l’enfance

À mesure que de plus en plus de jouets intègrent l’IA et la connectivité Internet, les risques augmentent. Sans une réglementation minutieuse et une surveillance parentale, ces appareils pourraient devenir des risques majeurs pour la sécurité, entravant potentiellement le développement émotionnel des enfants et érodant les liens avec le monde réel. L’enthousiasme actuel pour les jouets IA, combiné à des recherches limitées, exige une attention particulière de la part de l’industrie et des parents.