Il CEO di Roblox devia le preoccupazioni sulla sicurezza dei bambini in un’accesa intervista

11

Il CEO di Roblox, Dave Baszucki, è apparso visibilmente frustrato durante una recente intervista con il podcast Hard Fork del New York Times quando è stato pressato sulla sicurezza dei bambini sulla piattaforma. La discussione era incentrata sul nuovo sistema di verifica dell’età di Roblox – che prevede scansioni facciali obbligatorie per gli utenti che accedono alle funzionalità di messaggistica – ma si è rapidamente spostata in scambi tesi sulla gestione da parte dell’azienda di abusi e sfruttamento.

Il sistema di verifica dell’età

Baszucki ha descritto il nuovo processo di verifica come un modo per garantire che gli utenti soddisfino i requisiti di età minima, ma quando è stato messo alla prova da rapporti interni che suggerivano che l’azienda preferisse la crescita alla sicurezza, ha risposto in modo sprezzante: “Divertimento. Continuiamo a farlo. “ Ciò suggerisce una riluttanza a impegnarsi con un esame critico.

Intelligenza artificiale e sicurezza dei bambini

La conversazione si è fatta tesa quando il conduttore del podcast Kevin Roose ha suggerito che il miglioramento dei modelli di intelligenza artificiale potrebbe migliorare la sicurezza dei bambini. Baszucki ribatté: “Bene, quindi sei in linea con ciò che abbiamo fatto. Batti il ​​cinque.” Questo tono implica una posizione difensiva piuttosto che una genuina collaborazione.

Deviazione dalle domande difficili

L’amministratore delegato ha poi bruscamente riportato la conversazione al suo personale apprezzamento per il podcast, affermando: “Sono venuto qui perché amo il tuo podcast e sono venuto per parlare di tutto… se i nostri addetti alle pubbliche relazioni dicessero: ‘Parliamo di limiti di età per un’ora’, sono d’accordo, ma adoro il tuo pod. Pensavo di essere venuto qui per parlare di tutto. “ L’osservazione suggerisce il desiderio di controllare la narrazione ed evitare argomenti scomodi.

Questa intervista evidenzia una tensione ricorrente tra le aziende tecnologiche e le autorità di regolamentazione: le aziende spesso danno priorità all’espansione del business rispetto alla sicurezza immediata dei loro utenti più giovani. La riluttanza di Roblox ad affrontare in modo approfondito queste preoccupazioni solleva interrogativi sul suo impegno nel proteggere i bambini sulla sua piattaforma.

L’incidente sottolinea la necessità di un controllo più rigoroso degli ambienti di gioco online e di una responsabilità più trasparente da parte dei leader tecnologici.