Un giudice federale ha temporaneamente sospeso l’inserimento nella lista nera del Pentagono della società di intelligenza artificiale Anthropic, segnando una vittoria significativa per l’azienda nella sua battaglia legale in corso. L’ingiunzione preliminare, concessa dal giudice Rita F. Lin del distretto settentrionale della California, annulla la designazione del governo di “rischio della catena di fornitura” mentre il caso procede. Questa mossa arriva dopo settimane di crescente tensione tra Anthropic e il Dipartimento della Difesa sull’utilizzo accettabile dell’IA.
La controversia principale: sicurezza contro controllo
Al centro del conflitto c’è il rifiuto di Anthropic di consentire che la sua IA, Claude, venga utilizzata per armi autonome letali o per la sorveglianza di massa domestica. Il Pentagono, sotto la guida del segretario Pete Hegseth, ha spinto per contratti che includessero il linguaggio “qualsiasi uso lecito”, chiedendo essenzialmente un accesso illimitato. Anthropic ha resistito, portando alla designazione punitiva e alle minacce che avrebbero potuto paralizzare la sua attività.
“Punire Anthropic per aver portato il pubblico controllo sulla posizione contrattuale del governo è una classica ritorsione illegale del Primo Emendamento,” ha scritto il giudice Lin nella sua ordinanza.
La decisione del Pentagono di etichettare Anthropic come un rischio per la catena di fornitura – una designazione solitamente riservata a entità straniere legate ad avversari – ha suscitato critiche bipartisan. La mossa ha sollevato preoccupazioni circa ritorsioni contro le aziende dissenzienti dalla politica amministrativa. La questione non è se l’esercito possa scegliere i propri fornitori di intelligenza artificiale, ma se abbia oltrepassato i limiti legali nel punire il dissenso.
Interessi finanziari e confusione tra gli appaltatori
Anthropic sostiene che la designazione ha già causato una diffusa confusione tra i partner, con decine di persone che cercano chiarimenti sulla loro capacità di continuare a lavorare con l’azienda. Le dichiarazioni del tribunale suggeriscono potenziali perdite di entrate che vanno da centinaia di milioni a miliardi di dollari. Le stesse dichiarazioni del governo in tribunale hanno ulteriormente confuso le acque.
Durante un’udienza, il giudice Lin ha fatto pressioni sui funzionari sulla possibilità di licenziare gli appaltatori per aver utilizzato la tecnologia di Anthropic anche per lavori non correlati, come la fornitura di carta igienica ai militari. Il rappresentante del Dipartimento della Difesa ha faticato a fornire risposte chiare, sollevando dubbi sulla portata del divieto.
Messaggi contraddittori del Pentagono
La situazione è stata ulteriormente complicata dai post pubblici del Segretario Hegseth su X (ex Twitter), che inizialmente sembrava vietare ogni attività commerciale con Anthropic. Il Pentagono in seguito ha minimizzato la gravità della dichiarazione, sostenendo che non era “veramente intesa” come un divieto generale. Il giudice Lin ha apertamente messo in dubbio questo messaggio contraddittorio durante l’udienza.
Cosa succede dopo?
Il verdetto finale è ancora lontano settimane o mesi. Anthropic continua a concentrarsi sulla collaborazione con il governo per garantire un’implementazione sicura dell’IA, ma la causa evidenzia un dibattito più ampio sull’etica dell’IA, sulla sicurezza nazionale e sul discorso aziendale. Questo caso costituisce un precedente per il modo in cui il governo degli Stati Uniti gestirà gli appalti di intelligenza artificiale in futuro, in particolare per quanto riguarda le aziende che danno priorità alla sicurezza rispetto all’accesso illimitato.
La battaglia legale sottolinea una tensione critica: la necessità dei militari di un vantaggio tecnologico rispetto ai potenziali rischi di un’implementazione incontrollata dell’IA. Il risultato probabilmente modellerà il rapporto tra governo e sviluppatori di intelligenza artificiale negli anni a venire.
