El director ejecutivo de Roblox, Dave Baszucki, parecía visiblemente frustrado durante una entrevista reciente con el podcast Hard Fork de The New York Times cuando se le preguntó sobre la seguridad infantil en la plataforma. La discusión se centró en el sistema de verificación de la nueva era de Roblox, que implica escaneos faciales obligatorios para los usuarios que acceden a funciones de mensajería, pero rápidamente derivó en tensos intercambios sobre el manejo del abuso y la explotación por parte de la compañía.
El sistema de verificación de edad
Baszucki describió el nuevo proceso de verificación como una forma de garantizar que los usuarios cumplan con el requisito de edad mínima, pero cuando se le cuestionó sobre informes internos que sugerían que la empresa priorizaba el crecimiento sobre la seguridad, respondió con desdén: “Divertido. Sigamos investigando esto”. Esto sugiere una renuencia a involucrarse con un escrutinio crítico.
IA y seguridad infantil
La conversación se volvió tensa cuando el presentador del podcast Kevin Roose sugirió que mejorar los modelos de IA podría mejorar la seguridad infantil. Baszucki replicó: “Bien, entonces te estás alineando con lo que hicimos. Choca esos cinco”. Este tono implica una postura defensiva en lugar de una colaboración genuina.
Desviarse de las preguntas difíciles
Luego, el director ejecutivo desvió bruscamente la conversación hacia su aprecio personal por el podcast y afirmó: “Vine aquí porque me encanta su podcast y vine a hablar de todo… si nuestra gente de relaciones públicas dijera: ‘Hablemos sobre la restricción de edad durante una hora’, lo aceptaré, pero me encanta su grupo. Pensé que había venido aquí para hablar de todo”. El comentario sugiere un deseo de controlar la narrativa y evitar temas incómodos.
Esta entrevista destaca una tensión recurrente entre las empresas de tecnología y los reguladores: las empresas a menudo priorizan la expansión comercial sobre la seguridad inmediata de sus usuarios más jóvenes. La renuencia de Roblox a abordar a fondo estas preocupaciones plantea dudas sobre su compromiso de proteger a los niños en su plataforma.
El incidente subraya la necesidad de una supervisión más estricta de los entornos de juego en línea y una rendición de cuentas más transparente por parte de los líderes tecnológicos.
