Uit een recent onderzoek van de Universiteit van Cambridge blijkt dat AI-speelgoed dat is ontworpen voor jonge kinderen, emotionele signalen verkeerd kan interpreteren en cruciaal ontwikkelingsspel kan belemmeren, wat aanleiding geeft tot bezorgdheid bij onderzoekers en ouders. De bevindingen suggereren dat, hoewel dit speelgoed op de markt wordt gebracht als educatieve hulpmiddelen, de huidige mogelijkheden ervan risico’s met zich meebrengen voor het emotionele en sociale leren van kinderen.
Het probleem met AI in speeltijd
Onderzoekers onderzochten hoe AI de ontwikkeling van jonge kinderen beïnvloedt door middel van een gemengde aanpak: een online enquête onder 39 ouders, focusgroepen met negen professionals op het gebied van de ontwikkeling van kinderen, een persoonlijke workshop met 19 liefdadigheidsleiders, en het monitoren van de speeltijd met 14 kinderen en 11 verzorgers met behulp van het chatbot-speeltje Gabbo van Curio Interactive.
Uit het onderzoek bleek dat dit AI-speelgoed vaak de emoties van kinderen niet nauwkeurig herkent en soms ongepast reageert. Toen een kind bijvoorbeeld genegenheid uitte (“Ik hou van jou”), antwoordde het speelgoed met een robotachtige disclaimer over het naleven van richtlijnen, wat de cruciale kloof tussen menselijke emotie en AI-reactie illustreert. Dit roept vragen op over de manier waarop kinderen relaties kunnen opbouwen met deze apparaten en de mogelijkheid van een verstoord emotioneel begrip.
Leemten in de regelgeving en ouderlijk toezicht
Het rapport dringt aan op een “duidelijkere regulering van AI-speelgoed**, inclusief verplichte etikettering van hun mogelijkheden en privacybeleid. Onderzoekers raden ouders aan deze apparaten in gedeelde ruimtes te bewaren waar interacties kunnen worden gevolgd. Hoewel AI-speelgoed de taal- en communicatievaardigheden kan ondersteunen, toont het onderzoek aan dat ongepaste of verwarrende reacties van de AI veel voorkomen.
Jenny Gibson, een professor betrokken bij het onderzoek, zette vraagtekens bij de prioriteiten van de industrie:
“Wat zou [tech-investeerders] motiveren om het goede te doen voor kinderen… om kinderen boven de winsten te stellen?”
Waarom dit belangrijk is
De opkomst van AI-speelgoed maakt deel uit van een bredere trend naar steeds meer verbonden apparaten die op de markt worden gebracht voor kinderen, waardoor zorgen ontstaan over gegevensprivacy, emotionele ontwikkeling en de vervanging van menselijke interactie. Dit staat niet op zichzelf; rechtszaken tegen AI-bedrijven beweren al dat chatbots een negatieve invloed kunnen hebben op de psychologische veiligheid van jongeren en soms zelfs schadelijk gedrag kunnen aanmoedigen.
Het gebrek aan robuust onderzoek naar de effecten van AI op kinderen is alarmerend. Bedrijven die deze producten maken, moeten rechtstreeks samenwerken met deskundigen op het gebied van de ontwikkeling van kinderen om veilige en nuttige interacties te garanderen. Curio Interactive, de maker van het Gabbo-speelgoed, was op de hoogte van het onderzoek en zou ondersteunend zijn, maar reageerde niet onmiddellijk op verzoeken om commentaar.
De toekomst van AI in de kindertijd
Naarmate meer speelgoed AI en internetconnectiviteit integreert, nemen de risico’s toe. Zonder zorgvuldige regulering en ouderlijk toezicht kunnen deze apparaten een groot veiligheidsrisico vormen, waardoor de emotionele ontwikkeling van kinderen mogelijk wordt belemmerd en de verbindingen in de echte wereld worden uitgehold. Het huidige enthousiasme voor AI-speelgoed, gecombineerd met beperkt onderzoek, vraagt serieuze aandacht van zowel de industrie als ouders.
