Un juge fédéral a temporairement suspendu la liste noire de la société d’IA Anthropic par le Pentagone, marquant une victoire significative pour l’entreprise dans sa bataille juridique en cours. L’injonction préliminaire, accordée par la juge Rita F. Lin du district nord de Californie, annule la désignation de « risque de chaîne d’approvisionnement » par le gouvernement pendant que l’affaire progresse. Cette décision intervient après des semaines de tensions croissantes entre Anthropic et le ministère de la Défense sur l’utilisation acceptable de l’IA.
Le principal différend : sécurité contre contrôle
Au cœur du conflit se trouve le refus d’Anthropic de permettre que son IA, Claude, soit utilisée pour des armes mortelles autonomes ou pour la surveillance de masse nationale. Le Pentagone, sous le secrétaire d’État Pete Hegseth, a fait pression pour que les contrats incluent des termes « toute utilisation légale », exigeant essentiellement un accès sans restriction. Anthropic a résisté, ce qui a conduit à une désignation punitive et à des menaces qui pourraient paralyser son activité.
“Punir Anthropic pour avoir soumis l’opinion publique à l’examen de la position contractuelle du gouvernement est une mesure de représailles illégale et classique du premier amendement”, a écrit la juge Lin dans son ordonnance.
La décision du Pentagone de qualifier Anthropic de risque pour la chaîne d’approvisionnement – une désignation habituellement réservée aux entités étrangères liées à des adversaires – a suscité des critiques bipartites. Cette décision a suscité des inquiétudes quant aux représailles contre les entreprises dissidentes de la politique administrative. La question n’est pas de savoir si l’armée peut choisir ses fournisseurs d’IA, mais si elle a outrepassé les limites légales en punissant la dissidence.
Enjeux financiers et confusion des entrepreneurs
Anthropic affirme que cette désignation a déjà semé une confusion généralisée parmi les partenaires, des dizaines de personnes cherchant des éclaircissements sur leur capacité à continuer à travailler avec l’entreprise. Les dossiers judiciaires suggèrent des pertes de revenus potentielles allant de centaines de millions à des milliards de dollars. Les propres déclarations du gouvernement devant le tribunal ont encore brouillé les cartes.
Lors d’une audience, le juge Lin a demandé aux responsables si les sous-traitants seraient licenciés pour avoir utilisé la technologie d’Anthropic même pour des travaux sans rapport, comme la fourniture de papier toilette à l’armée. Le représentant du ministère de la Défense a eu du mal à apporter des réponses claires, soulevant des doutes sur la portée de l’interdiction.
Messages contradictoires du Pentagone
La situation a été encore compliquée par les publications publiques du secrétaire Hegseth sur X (anciennement Twitter), qui semblaient initialement interdire toute activité commerciale avec Anthropic. Le Pentagone a par la suite minimisé la sévérité de cette déclaration, affirmant qu’elle n’était pas « vraiment conçue » comme une interdiction générale. Le juge Lin a clairement remis en question ce message contradictoire lors de l’audience.
Que se passe-t-il ensuite ?
Le verdict final est encore dans des semaines ou des mois. Anthropic reste concentré sur la collaboration avec le gouvernement pour garantir une mise en œuvre sûre de l’IA, mais le procès met en lumière un débat plus large sur l’éthique de l’IA, la sécurité nationale et le discours des entreprises. Cette affaire crée un précédent quant à la manière dont le gouvernement américain gérera les achats d’IA à l’avenir, en particulier en ce qui concerne les entreprises qui privilégient la sécurité plutôt que l’accès sans entrave.
La bataille juridique souligne une tension critique : le besoin de l’armée d’un avantage technologique par rapport aux risques potentiels d’un déploiement incontrôlé de l’IA. Le résultat façonnera probablement la relation entre le gouvernement et les développeurs d’IA pour les années à venir.
























