Una demanda colectiva acusa a Google de publicar indebidamente información personal sensible sobre las víctimas de Jeffrey Epstein, incluso después de que el Departamento de Justicia (DOJ) reconoció y eliminó los mismos datos de su propio sitio web. La demanda alega que las herramientas de inteligencia artificial de Google continuaron alojando e incluso facilitando el contacto directo con las víctimas, a pesar de las repetidas solicitudes de eliminación.
El problema: redacción defectuosa y persistencia de la IA
El problema central surge de la publicación de documentos relacionados con Epstein tras la aprobación de la Ley de Transparencia de Archivos Epstein el año pasado. Según los informes, las redacciones iniciales del Departamento de Justicia fueron insuficientes, lo que dejó expuestas las identidades de las víctimas y, en ocasiones, protegió a los acusados. Si bien el Departamento de Justicia corrigió estos errores desde entonces, el daño se extendió cuando la IA de Google eliminó los datos no redactados.
La demanda afirma que Google no sólo no eliminó la información (que incluye nombres completos, detalles de contacto y ciudades residenciales) sino que también amplificó activamente el daño. La IA supuestamente generó un enlace en el que se podía hacer clic que permitía enviar correos electrónicos directos a un demandante.
Por qué esto es importante: responsabilidad y privacidad de la IA
Este caso pone de relieve una preocupación creciente sobre el papel de la IA en la perpetuación del daño. A diferencia de otros modelos de IA como ChatGPT, Claude y Perplexity, que supuestamente no publicaron datos de las víctimas cuando se probaron, la IA de Google supuestamente retuvo y difundió información confidencial.
Esto es importante por varias razones :
- La IA no es neutral : procesa y distribuye información activamente, lo que significa que puede exacerbar las fallas de privacidad existentes.
- Responsabilidad en la era de la IA : las empresas tecnológicas pueden enfrentarse a una presión legal cada vez mayor para garantizar que sus herramientas no amplifiquen el daño.
- La velocidad de replicación : una vez que los datos están disponibles, incluso si se corrigen en la fuente, la IA puede volver a publicarlos rápidamente.
Problemas legales anteriores de Google
Esta demanda se suma a los recientes desafíos legales de Google. Un jurado de Los Ángeles encontró recientemente que Meta y YouTube, propiedad de Google, son responsables de diseñar productos que adictan y dañan a los niños, priorizando la participación sobre el bienestar del usuario. Este patrón sugiere una tendencia más amplia de las empresas de tecnología que enfrentan escrutinio por priorizar el crecimiento sobre la seguridad.
Hasta el momento, Google no ha comentado públicamente sobre la última demanda. Si los demandantes prevalecen, este juicio podría sentar precedentes importantes para la protección de la privacidad en una era en la que la IA acelera la difusión de datos confidenciales.
























