KI-Verbot des Pentagons vom Richter vorübergehend blockiert: Anthropic gewinnt die erste Schlacht

5

Ein Bundesrichter hat die schwarze Liste des KI-Unternehmens Anthropic durch das Pentagon vorübergehend gestoppt, was einen bedeutenden Sieg für das Unternehmen in seinem laufenden Rechtsstreit darstellt. Die von Richterin Rita F. Lin vom Northern District of California erlassene einstweilige Verfügung macht die Einstufung der Regierung als „Lieferkettenrisiko“ rückgängig, solange der Fall noch andauert. Dieser Schritt erfolgt nach wochenlangen eskalierenden Spannungen zwischen Anthropic und dem Verteidigungsministerium über die akzeptable KI-Nutzung.

Der Kernstreit: Sicherheit vs. Kontrolle

Im Mittelpunkt des Konflikts steht die Weigerung von Anthropic, den Einsatz seiner KI Claude für tödliche autonome Waffen oder die Massenüberwachung im Inland zuzulassen. Das Pentagon drängte unter Minister Pete Hegseth auf Verträge, die „jede rechtmäßige Verwendung“ enthielten und im Wesentlichen uneingeschränkten Zugang forderten. Anthropic leistete Widerstand, was zu einer Strafanzeige und Drohungen führte, die das Geschäft lahmlegen könnten.

„Die Bestrafung von Anthropic dafür, dass sie die Vertragsposition der Regierung in die öffentliche Kontrolle gebracht hat, ist eine klassische illegale Vergeltungsmaßnahme nach dem Ersten Verfassungszusatz“, schrieb Richterin Lin in ihrem Beschluss.

Die Entscheidung des Pentagons, Anthropic als Lieferkettenrisiko zu bezeichnen – eine Bezeichnung, die normalerweise ausländischen Unternehmen vorbehalten ist, die mit Gegnern in Verbindung stehen – löste parteiübergreifende Kritik aus. Der Schritt gab Anlass zu Bedenken hinsichtlich Vergeltungsmaßnahmen gegen Unternehmen, die von der Regierungspolitik abweichen. Die Frage ist nicht, ob das Militär seine KI-Anbieter auswählen kann, sondern ob es bei der Bestrafung abweichender Meinungen gesetzliche Grenzen überschritten hat.

Finanzielle Risiken und Verwirrung bei den Auftragnehmern

Anthropic behauptet, die Benennung habe bei den Partnern bereits für große Verwirrung gesorgt, und Dutzende hätten sich um Klärung ihrer Fähigkeit bemüht, weiterhin mit dem Unternehmen zusammenzuarbeiten. Gerichtsakten deuten auf potenzielle Einnahmeverluste in Höhe von Hunderten Millionen bis Milliarden Dollar hin. Die eigenen Aussagen der Regierung vor Gericht haben die Lage noch weiter getrübt.

Während einer Anhörung drängte Richter Lin die Beamten dazu, ob Auftragnehmer gekündigt würden, wenn sie die Technologie von Anthropic nutzen, auch für nicht damit zusammenhängende Arbeiten, etwa die Lieferung von Toilettenpapier an das Militär. Der Vertreter des Verteidigungsministeriums hatte Mühe, klare Antworten zu geben, was Zweifel am Umfang des Verbots aufkommen ließ.

Widersprüchliche Botschaften des Pentagons

Die Situation wurde durch die öffentlichen Posts von Minister Hegseth auf X (ehemals Twitter) noch komplizierter, die zunächst scheinbar jegliche kommerzielle Aktivität mit Anthropic verbot. Das Pentagon spielte die Schwere der Aussage später herunter und behauptete, sie sei nicht „wirklich“ als pauschales Verbot gemeint. Richter Lin stellte diese widersprüchliche Botschaft während der Anhörung gezielt in Frage.

Was passiert als nächstes?

Ein endgültiges Urteil lässt noch Wochen oder Monate auf sich warten. Anthropic konzentriert sich weiterhin auf die Zusammenarbeit mit der Regierung, um eine sichere KI-Implementierung zu gewährleisten, aber die Klage wirft ein Schlaglicht auf eine breitere Debatte über KI-Ethik, nationale Sicherheit und Unternehmensrede. Dieser Fall stellt einen Präzedenzfall dafür dar, wie die US-Regierung künftig die KI-Beschaffung steuert, insbesondere im Hinblick auf Unternehmen, die Sicherheit über uneingeschränkten Zugang stellen.

Der Rechtsstreit verdeutlicht ein kritisches Spannungsverhältnis: das Bedürfnis des Militärs nach technologischen Vorteilen gegenüber den potenziellen Risiken eines unkontrollierten KI-Einsatzes. Das Ergebnis wird wahrscheinlich die Beziehung zwischen Regierung und KI-Entwicklern in den kommenden Jahren prägen.