Une affaire récente impliquant un suspect présumé d’incendie criminel et ses conversations avec le chatbot ChatGPT met en évidence un dilemme juridique imminent : comment protéger la confidentialité des conversations tenues avec une intelligence artificielle de plus en plus sophistiquée ?
Jonathan Rinderknecht fait face à des accusations liées à un incendie de forêt dévastateur en Californie. Les procureurs affirment que les interactions en ligne entre M. Rinderknecht et ChatGPT, y compris des discussions sur la gravure d’une Bible et la création d’une image dystopique représentant un incendie, révèlent son intention d’allumer l’incendie.
Même si M. Rinderknecht plaide non coupable, cette affaire soulève des questions troublantes sur les ramifications juridiques de conversations de plus en plus intimes avec des systèmes d’IA comme ChatGPT. Ces programmes sont conçus pour imiter le dialogue humain : ils « écoutent », proposent des réponses raisonnées et influencent même les processus de pensée des utilisateurs. De nombreuses personnes se tournent vers ces chatbots pour des discussions confidentielles sur des sujets trop sensibles ou personnels pour être partagés avec de vraies personnes.
Cette tendance croissante nécessite un nouveau cadre juridique pour protéger la vie privée des utilisateurs dans le domaine des interactions avec l’IA. Le juriste Greg Mitchell de l’Université de Virginie décrit avec justesse la nécessité de cette protection : « la confidentialité doit être absolument essentielle au fonctionnement de la relation ».
Sans cela, les utilisateurs s’autocensureront inévitablement, ce qui entravera les avantages mêmes qu’offrent ces technologies en matière de soutien à la santé mentale, de résolution de problèmes juridiques et financiers et même de découverte de soi. Imaginez l’effet dissuasif sur un utilisateur cherchant du réconfort auprès d’un thérapeute en IA s’il craignait que ces révélations profondément personnelles ne soient utilisées contre lui devant un tribunal.
Actuellement, les doctrines juridiques existantes telles que la doctrine des tiers traitent les informations partagées avec les services en ligne comme étant intrinsèquement non privées. Cette approche ne tient pas compte de la nature unique des interactions avec les systèmes d’IA sophistiqués, qui fonctionnent de plus en plus comme des confidents plutôt que comme de simples référentiels de données.
Par conséquent, un nouveau concept juridique est nécessaire – ce que je propose est appelé « privilège d’interaction avec l’IA ». Cela refléterait les protections juridiques existantes telles que la confidentialité avocat-client ou médecin-patient en protégeant les communications avec AI à des fins telles que la recherche de conseils ou de soutien émotionnel.
Toutefois, ce privilège ne serait pas absolu. Il devrait inclure :
- Conversations protégées : Les interactions avec l’IA destinées à un avocat ou à un traitement émotionnel doivent être protégées de toute divulgation forcée au tribunal, sauf circonstances exceptionnelles. Les utilisateurs pourraient activer cette protection via les paramètres de l’application ou la réclamer lors d’une procédure judiciaire si le contexte le justifie.
-
Devoir d’avertissement : À l’instar des thérapeutes tenus de signaler les menaces imminentes, les IA devraient être légalement tenues de divulguer les dangers prévisibles que représentent les utilisateurs pour eux-mêmes ou pour autrui.
-
Exception en matière de criminalité et de fraude : Les communications impliquant la planification ou l’exécution d’une activité criminelle resteraient détectables sous contrôle judiciaire.
Application de ce cadre à l’affaire Rinderknecht : bien que sa question initiale sur les incendies provoqués par l’IA ne puisse pas bénéficier d’une protection (semblable à une recherche en ligne), ses remarques confessionnelles sur le fait de brûler une Bible pourraient être considérées comme révélatrices d’émotion et ne pas être directement indicatives d’une intention criminelle au moment de leur divulgation.
L’établissement du privilège d’interaction avec l’IA est crucial pour favoriser la confiance dans cette technologie en plein essor. Cela indiquerait que les interactions ouvertes et honnêtes avec les IA sont valorisées, permettant aux individus d’exploiter leur potentiel d’amélioration personnelle et de résolution de problèmes sans craindre de répercussions juridiques en cas d’introspection numérique franche. Sans de telles garanties, nous risquons d’étouffer les avantages mêmes qu’offrent ces outils puissants, laissant les citoyens appréhendés même à l’idée de penser librement dans la sphère numérique.
