Un recours collectif accuse Google d’avoir publié de manière inappropriée des informations personnelles sensibles sur les victimes de Jeffrey Epstein, même après que le ministère de la Justice (DOJ) ait reconnu et supprimé les mêmes données de son propre site Web. La poursuite allègue que les outils d’IA de Google ont continué à héberger et même à faciliter le contact direct avec les victimes, malgré les demandes répétées de suppression.
Le problème : rédaction défectueuse et persistance de l’IA
Le problème principal découle de la publication de documents liés à Epstein suite à l’adoption de la loi sur la transparence des fichiers Epstein l’année dernière. Les expurgations initiales effectuées par le DOJ auraient été insuffisantes, laissant l’identité des victimes exposée tout en protégeant parfois les accusés. Bien que le DOJ ait depuis corrigé ces erreurs, les dégâts se sont propagés lorsque l’IA de Google a récupéré les données non expurgées.
Le procès affirme que Google non seulement n’a pas réussi à supprimer les informations, qui incluent les noms complets, les coordonnées et les villes résidentielles, mais qu’il a également activement amplifié le préjudice. L’IA aurait généré un lien cliquable permettant d’envoyer des e-mails directs à un plaignant.
Pourquoi c’est important : responsabilité et confidentialité de l’IA
Cette affaire met en lumière une préoccupation croissante quant au rôle de l’IA dans la perpétuation des préjudices. Contrairement à d’autres modèles d’IA comme ChatGPT, Claude et Perplexity, qui n’auraient pas publié de données sur les victimes lors des tests, l’IA de Google aurait conservé et diffusé des informations sensibles.
Ceci est important pour plusieurs raisons :
- L’IA n’est pas neutre : elle traite et distribue activement les informations, ce qui signifie qu’elle peut exacerber les échecs existants en matière de confidentialité.
- La responsabilité à l’ère de l’IA : les entreprises technologiques pourraient être confrontées à une pression juridique croissante pour garantir que leurs outils n’amplifient pas les dommages.
- La vitesse de réplication : une fois les données sorties, même si elles sont corrigées à la source, l’IA peut les republier rapidement.
Problèmes juridiques antérieurs de Google
Ce procès s’ajoute aux récentes contestations judiciaires de Google. Un jury de Los Angeles a récemment déclaré que Meta et YouTube, propriété de Google, étaient responsables de la conception de produits addictifs et nocifs pour les enfants, privilégiant l’engagement plutôt que le bien-être des utilisateurs. Cette tendance suggère une tendance plus large selon laquelle les entreprises technologiques sont soumises à un examen minutieux parce qu’elles donnent la priorité à la croissance plutôt qu’à la sécurité.
Pour l’instant, Google n’a pas commenté publiquement la dernière poursuite. Si les plaignants obtiennent gain de cause, ce procès pourrait établir d’importants précédents en matière de protection de la vie privée à une époque où l’IA accélère la diffusion de données sensibles.
