Le PDG de Roblox détourne les préoccupations en matière de sécurité des enfants lors d’une interview passionnée

9

Le PDG de Roblox, Dave Baszucki, a semblé visiblement frustré lors d’une récente interview avec le podcast Hard Fork du New York Times lorsqu’il a été interrogé sur la sécurité des enfants sur la plateforme. La discussion s’est concentrée sur le nouveau système de vérification de l’âge de Roblox – qui implique des analyses faciales obligatoires pour les utilisateurs accédant aux fonctionnalités de messagerie – mais s’est rapidement transformée en échanges tendus sur la gestion par l’entreprise des abus et de l’exploitation.

Le système de vérification de l’âge

Baszucki a décrit le nouveau processus de vérification comme un moyen de garantir que les utilisateurs répondent à l’âge minimum requis, mais lorsqu’il a été interrogé sur des rapports internes suggérant que l’entreprise donnait la priorité à la croissance plutôt qu’à la sécurité, il a répondu avec dédain : “Amusant. Continuons sur cette voie. “ Cela suggère une réticence à s’engager dans un examen critique.

IA et sécurité des enfants

La conversation est devenue tendue lorsque l’animateur du podcast, Kevin Roose, a suggéré que l’amélioration des modèles d’IA pourrait améliorer la sécurité des enfants. Baszucki a rétorqué : “Bien, donc vous vous alignez sur ce que nous avons fait. High-five. “ Ce ton implique une posture défensive plutôt qu’une véritable collaboration.

Se détourner des questions difficiles

Le PDG a ensuite brusquement ramené la conversation à son appréciation personnelle pour le podcast, déclarant : ** ” Je suis venu ici parce que j’adore votre podcast et je suis venu parler de tout… si nos responsables des relations publiques disaient : ” Parlons de la limitation de l’âge pendant une heure “, je suis partant, mais j’adore votre pod. Je pensais que j’étais venu ici pour parler de tout. “** La remarque suggère un désir de contrôler le récit et d’éviter les sujets inconfortables.

Cette interview met en évidence une tension récurrente entre les entreprises technologiques et les régulateurs : les entreprises privilégient souvent l’expansion de leur activité plutôt que la sécurité immédiate de leurs plus jeunes utilisateurs. La réticence de Roblox à répondre en profondeur à ces préoccupations soulève des questions sur son engagement à protéger les enfants sur sa plateforme.

L’incident souligne la nécessité d’une surveillance plus stricte des environnements de jeu en ligne et d’une responsabilité plus transparente de la part des leaders technologiques.