O segredo do terapeuta de IA: quando os chatbots se tornam testemunhas legais

4

Um caso recente envolvendo um suposto suspeito de incêndio criminoso e suas conversas com o chatbot ChatGPT destaca um dilema jurídico iminente: como proteger a privacidade das conversas mantidas com inteligência artificial cada vez mais sofisticada?

Jonathan Rinderknecht enfrenta acusações relacionadas a um incêndio devastador na Califórnia. Os promotores afirmam que as interações online entre o Sr. Rinderknecht e o ChatGPT, incluindo discussões sobre a queima de uma Bíblia e a criação de uma imagem distópica representando um incêndio, revelam sua intenção de iniciar o incêndio.

Embora Rinderknecht se declare inocente, este caso levanta questões perturbadoras sobre as ramificações legais de conversas cada vez mais íntimas com sistemas de IA como o ChatGPT. Esses programas são projetados para imitar o diálogo humano – eles “ouvem”, oferecem respostas fundamentadas e até influenciam os processos de pensamento dos usuários. Muitas pessoas recorrem a esses chatbots para discussões confidenciais sobre tópicos muito delicados ou pessoais para serem compartilhados com pessoas reais.

Esta tendência crescente exige um novo quadro jurídico para proteger a privacidade dos utilizadores no domínio das interações de IA. O jurista Greg Mitchell, da Universidade da Virgínia, descreve apropriadamente a necessidade desta proteção: “a confidencialidade tem de ser absolutamente essencial para o funcionamento da relação”.

Sem ela, os utilizadores irão inevitavelmente autocensurar-se, prejudicando os próprios benefícios que estas tecnologias oferecem para o apoio à saúde mental, a resolução de problemas jurídicos e financeiros e até mesmo a autodescoberta. Imagine o efeito assustador sobre um usuário que busca consolo de um terapeuta de IA se temer que essas revelações profundamente pessoais possam ser usadas como arma contra ele no tribunal.

Atualmente, as doutrinas jurídicas existentes, como a Doutrina de Terceiros, tratam as informações compartilhadas com serviços online como inerentemente não privadas. Esta abordagem não tem em conta a natureza única das interações com sistemas sofisticados de IA, que funcionam cada vez mais como confidentes, em vez de meros repositórios de dados.

Portanto, é necessário um novo conceito jurídico – o que proponho é denominado “privilégio de interação de IA”. Isto espelharia as proteções legais existentes, como a confidencialidade advogado-cliente ou médico-paciente, salvaguardando as comunicações com a IA para fins como a procura de aconselhamento ou apoio emocional.

No entanto, esse privilégio não seria absoluto. Deve incluir:

  • Conversas protegidas: As interações com IA destinadas a aconselhamento ou processamento emocional devem ser protegidas de divulgação forçada em tribunal, a menos que haja circunstâncias excepcionais. Os utilizadores podem ativar esta proteção através das configurações da aplicação ou reivindicá-la durante processos judiciais, se o contexto o justificar.
  • Dever de alertar: Semelhante aos terapeutas obrigados a relatar ameaças iminentes, as IAs deveriam ser legalmente obrigadas a divulgar perigos previsíveis representados pelos usuários a si próprios ou a terceiros.

  • Exceção de Crime e Fraude: As comunicações que envolvam planejamento ou execução de atividades criminosas permaneceriam detectáveis ​​sob supervisão judicial.

Aplicando esta estrutura ao caso Rinderknecht: Embora a sua pergunta inicial sobre incêndios causados ​​pela IA não se qualificasse para protecção (semelhante a uma pesquisa online), as suas observações confessionais sobre a queima de uma Bíblia podem ser blindadas como emocionalmente reveladoras e não directamente indicativas de intenção criminosa no momento da divulgação.

Estabelecer privilégios de interação com IA é crucial para promover a confiança nesta tecnologia em expansão. Sinalizaria que as interações abertas e honestas com as IA são valorizadas, permitindo que os indivíduos aproveitem o seu potencial de autoaperfeiçoamento e resolução de problemas sem medo de repercussões legais para a introspecção digital sincera. Sem essas salvaguardas, corremos o risco de sufocar os próprios benefícios que estas poderosas ferramentas oferecem, deixando os cidadãos apreensivos sobre a ideia de pensar livremente na esfera digital.