Секрет ШІ-терапевта: коли чат-боти стають свідками в суді

1

Нещодавній випадок обвинуваченого у справі про ймовірний підпал і його розмови з чат-ботом ChatGPT висвітлюють гостру правову дилему: як захистити конфіденційність розмов, які ведуться за допомогою все більш досконалого штучного інтелекту?

Джонатана Ріндеркнехта звинувачують у причетності до руйнівної лісової пожежі в Каліфорнії. Прокурори кажуть, що онлайн-взаємодія пана Ріндеркнехта з ChatGPT, включаючи дискусії про спалення Біблії та створення антиутопічного образу пожежі, показала його намір розпалити пожежу.

Хоча пан Ріндеркнехт стверджує свою невинуватість, ця справа викликає тривогу щодо кримінально-правових наслідків все більш інтимних розмов із системами ШІ, такими як ChatGPT. Ці програми створені для імітації людського діалогу — вони «слухають», пропонують аргументовані відповіді та навіть впливають на думки користувачів. Багато людей звертаються до цих чат-ботів для конфіденційних обговорень на надто делікатні або особисті теми, щоб спілкуватися з реальними людьми.

Ця зростаюча тенденція вимагає нової законодавчої бази для захисту конфіденційності користувачів під час взаємодії ШІ. Юрист Грег Мітчелл з Університету Вірджинії влучно висловлює необхідність такого захисту: «Конфіденційність має бути абсолютно необхідною для функціонування стосунків».

Без цього користувачі неминуче зазнають самоцензури, що не дозволить їм отримати всі переваги, які пропонують ці технології для підтримки психічного здоров’я, вирішення юридичних і фінансових проблем і навіть самопізнання. Уявіть собі вплив на користувача, який шукає розради у терапевта ШІ, якщо він побоюється, що його глибоко особисті одкровення можуть бути використані проти нього в суді.

Наразі чинні правові доктрини, такі як Доктрина третьої сторони, вважають інформацію, надану онлайн-сервісам, узгодженою. Цей підхід не враховує унікальний характер взаємодії з передовими системами штучного інтелекту, які все частіше діють як проксі-сервери, а не просто сховища даних.

Тому необхідна нова юридична концепція — те, що я називаю «Привілей взаємодії ШІ». Це відповідатиме існуючим законодавчим засобам захисту, таким як привілеї адвокат-клієнт або лікар-пацієнт, захист спілкування з ШІ з метою отримання поради чи емоційної підтримки.

Однак цей привілей не буде абсолютним. Він повинен включати:

  • Захищені розмови: Взаємодії з ШІ, призначені для консультування або емоційної обробки, повинні бути захищені від примусового розголошення в суді, за винятком особливих обставин. Користувачі можуть активувати цей захист за допомогою налаштувань додатка або відстоювати його в судовому процесі, якщо цього вимагає контекст.
  • Обов’язок попереджати: Подібно до того, як терапевти мають обов’язок повідомляти про передбачувану небезпеку, ШІ повинен бути зобов’язаний за законом розкривати передбачувану небезпеку, яку представляють користувачі для себе чи інших.

  • Виняток щодо злочинів і шахрайства: Повідомлення, пов’язані з плануванням або вчиненням злочинних дій, залишатимуться відкритими для розпорядження суду.

Застосовуючи цю структуру до справи Ріндеркнехта: хоча його початковий запит про пожежі, спричинені штучним інтелектом, не захищений (як пошук в Інтернеті), його визнання щодо знищення Біблії можуть бути захищені як емоційно значущі, а не як пряме свідчення злочинного наміру на момент розголошення.

Встановлення привілею взаємодії з ШІ має вирішальне значення для розвитку довіри до цієї технології, що швидко розвивається. Це надішле повідомлення про те, що відкриті та чесні розмови з ШІ цінуються, дозволяючи людям використовувати свій потенціал для самовдосконалення та вирішення проблем, не боячись юридичних наслідків за відверту цифрову рефлексію. Без таких гарантій ми ризикуємо придушити самі переваги цих потужних інструментів, залишаючи громадян неспокійними, навіть коли вони вільно думають у цифровому просторі.