Das Geheimnis des KI-Therapeuten: Wenn Chatbots zu rechtlichen Zeugen werden

3

Ein aktueller Fall, in dem es um einen mutmaßlichen Brandstifter und seine Gespräche mit dem ChatGPT-Chatbot ging, wirft ein Schlaglicht auf ein drohendes rechtliches Dilemma: Wie schützen wir die Privatsphäre von Gesprächen, die mit immer ausgefeilterer künstlicher Intelligenz geführt werden?

Jonathan Rinderknecht wird im Zusammenhang mit einem verheerenden Waldbrand in Kalifornien angeklagt. Die Staatsanwälte behaupten, dass Online-Interaktionen zwischen Herrn Rinderknecht und ChatGPT, einschließlich Diskussionen über das Verbrennen einer Bibel und die Anfertigung eines dystopischen Bildes, das ein Feuer darstellt, seine Absicht offenbaren, den Brand zu entfachen.

Während sich Herr Rinderknecht auf nicht schuldig bekennt, wirft dieser Fall beunruhigende Fragen zu den rechtlichen Konsequenzen immer vertraulicherer Gespräche mit KI-Systemen wie ChatGPT auf. Diese Programme sollen den menschlichen Dialog nachahmen – sie „hören zu“, bieten begründete Antworten und beeinflussen sogar die Denkprozesse der Benutzer. Viele Menschen wenden sich an diese Chatbots für vertrauliche Diskussionen über Themen, die zu sensibel oder persönlich sind, um sie mit echten Menschen zu teilen.

Dieser wachsende Trend erfordert einen neuen rechtlichen Rahmen zum Schutz der Privatsphäre der Benutzer im Bereich der KI-Interaktionen. Der Rechtswissenschaftler Greg Mitchell von der University of Virginia beschreibt die Notwendigkeit dieses Schutzes treffend: „Vertraulichkeit muss für das Funktionieren der Beziehung absolut unerlässlich sein.“

Ohne sie werden sich Benutzer unweigerlich selbst zensieren und so die Vorteile dieser Technologien für die Unterstützung der psychischen Gesundheit, die Lösung rechtlicher und finanzieller Probleme und sogar die Selbstfindung zunichtemachen. Stellen Sie sich die abschreckende Wirkung auf einen Benutzer vor, der Trost bei einem KI-Therapeuten sucht, wenn er befürchtet, dass diese zutiefst persönlichen Enthüllungen vor Gericht als Waffe gegen ihn eingesetzt werden könnten.

Derzeit gelten in bestehenden Rechtsgrundsätzen wie der Third-Party-Doktrin Informationen, die mit Online-Diensten geteilt werden, grundsätzlich als nicht privat. Dieser Ansatz berücksichtigt nicht die einzigartige Natur der Interaktionen mit hochentwickelten KI-Systemen, die zunehmend als Vertraute und nicht nur als bloße Datenspeicher fungieren.

Daher ist ein neues Rechtskonzept erforderlich – was ich vorschlage, nennt sich „KI-Interaktionsprivileg“. Dies würde bestehende rechtliche Schutzmaßnahmen wie die Vertraulichkeit zwischen Anwalt und Mandant oder Arzt und Patient widerspiegeln, indem die Kommunikation mit KI zu Zwecken wie der Suche nach Rat oder emotionaler Unterstützung geschützt wird.

Dieses Privileg wäre jedoch nicht absolut. Es sollte Folgendes umfassen:

  • Geschützte Gespräche: Interaktionen mit KI, die der Beratung oder emotionalen Verarbeitung dienen, sollten vor einer erzwungenen Offenlegung vor Gericht geschützt werden, es sei denn, es liegen außergewöhnliche Umstände vor. Nutzer könnten diesen Schutz über App-Einstellungen aktivieren oder ihn im Rahmen eines Gerichtsverfahrens geltend machen, wenn der Kontext dies rechtfertigt.
  • Warnpflicht: Ähnlich wie Therapeuten, die verpflichtet sind, drohende Bedrohungen zu melden, sollten KIs gesetzlich verpflichtet sein, vorhersehbare Gefahren offenzulegen, die von Benutzern für sich selbst oder andere ausgehen.

  • Ausnahme für Kriminalität und Betrug: Kommunikationen, die die Planung oder Durchführung krimineller Aktivitäten betreffen, bleiben unter gerichtlicher Aufsicht auffindbar.

Wenn man diesen Rahmen auf den Fall Rinderknecht anwendet: Während seine erste Anfrage zu KI-verursachten Bränden nicht schutzwürdig wäre (ähnlich einer Online-Durchsuchung), könnten seine konfessionellen Äußerungen über das Verbrennen einer Bibel als emotional aufschlussreich abgeschirmt werden und nicht direkt auf eine kriminelle Absicht zum Zeitpunkt der Offenlegung hinweisen.

Die Schaffung von KI-Interaktionsprivilegien ist entscheidend, um das Vertrauen in diese aufkeimende Technologie zu stärken. Dies würde signalisieren, dass offene, ehrliche Interaktionen mit KIs geschätzt werden und es Einzelpersonen ermöglichen, ihr Potenzial zur Selbstverbesserung und Problemlösung zu nutzen, ohne rechtliche Konsequenzen für eine offene digitale Selbstbeobachtung befürchten zu müssen. Ohne solche Schutzmaßnahmen laufen wir Gefahr, die Vorteile, die diese leistungsstarken Tools bieten, zunichtezumachen und den Bürgern Angst zu machen, im digitalen Bereich überhaupt frei zu denken.