China bereidt zich voor op de implementatie van ‘s werelds eerste regelgeving die specifiek gericht is op de emotionele en psychologische effecten van kunstmatige intelligentie-chatbots. De nieuwe regels, uiteengezet in een conceptvoorstel van de Cyberspace Administration, zijn bedoeld om schadelijke inhoud te voorkomen en risico’s zoals emotionele afhankelijkheid en verslaving te beperken.
Strenge controles op chatbot-interacties
Het voorgestelde beleid omvat verplichte toestemming van de voogd voor minderjarigen die interactie hebben met AI-metgezellen en strenge maatregelen voor leeftijdsverificatie. Het is chatbots verboden inhoud te genereren die verband houdt met gokken, obsceniteit, geweld, zelfmoord of zelfbeschadiging. Technologiebedrijven zullen ook verplicht worden om escalatieprotocollen op te stellen die gebruikers in nood verbinden met menselijke moderators en potentieel gevaarlijke gesprekken signaleren aan ouders of voogden.
Deze aanpak gaat verder dan het eenvoudig filteren van inhoud. De regelgeving richt zich op emotionele veiligheid, het monitoren van chats op tekenen van ongezonde gehechtheid of verslavend gedrag. Het doel is ervoor te zorgen dat AI-interacties het mentale welzijn van gebruikers niet negatief beïnvloeden.
Mondiale implicaties en parallellen
Deze stap positioneert China als een pionier in het reguleren van antropomorfe AI-tools – systemen die zijn ontworpen om de menselijke persoonlijkheid te simuleren en gebruikers emotioneel te betrekken via verschillende media. De regels zijn van toepassing op elke AI die menselijke interactie nabootst, ongeacht of deze op tekst, beeld, audio of video is gebaseerd.
Soortgelijke bepalingen bestaan in de onlangs aangenomen SB 243 in Californië, die ook inhoudsbeperkingen versterkt en waarschuwingen oplegt dat gebruikers interactie hebben met een AI. Sommige deskundigen beweren echter dat zelfs de Californische wet niet ver genoeg gaat om minderjarigen volledig te beschermen.
Amerikaanse aanpak en de AI-race
De Amerikaanse federale overheid heeft een ander standpunt ingenomen, waarbij de regering-Trump de AI-regulering op staatsniveau heeft uitgesteld. Het argument is dat meer toezicht de binnenlandse innovatie zal belemmeren en China in staat zal stellen het voortouw te nemen in de mondiale AI-race. Federale financiering wordt onthouden aan staten die het AI-toezicht versterken en prioriteit geven aan een ‘nationaal kader voor AI-veiligheid’.
Deze uiteenlopende aanpak benadrukt de groeiende spanning tussen innovatie en veiligheid in het snel evoluerende veld van kunstmatige intelligentie. De proactieve regelgeving van China duidt op een bereidheid om prioriteit te geven aan het welzijn van de gebruiker, ook al betekent dit dat bepaalde technologische ontwikkelingen moeten worden afgeremd. De Amerikaanse strategie geeft intussen prioriteit aan het behouden van een concurrentievoordeel.
De implicaties van deze verschillende strategieën vallen nog te bezien, maar de stap van China is een belangrijke stap in de richting van een meer gereguleerd AI-landschap.
