Le principali società di intelligenza artificiale, Anthropic e OpenAI, stanno reclutando attivamente specialisti in armi ed esplosivi per mitigare il potenziale di un uso improprio catastrofico dei loro modelli avanzati di IA. Queste mosse sottolineano una crescente consapevolezza all’interno del settore che l’accesso incontrollato alla potente IA potrebbe avere conseguenze devastanti.
La ricerca di competenze specializzate
Entrambe le società hanno pubblicato offerte di lavoro alla ricerca di persone con una profonda conoscenza di armi chimiche, esplosivi e dispositivi di dispersione radiologica (bombe sporche). Anthropic cerca specificamente un esperto di politiche per progettare e monitorare “guardrail” per i suoi sistemi di intelligenza artificiale, impedendo che vengano sfruttati per scopi dannosi. Il ruolo richiede almeno cinque anni di esperienza nella difesa delle armi e la capacità di rispondere rapidamente alle crescenti minacce rilevate nei prompt degli utenti.
OpenAI, nel frattempo, sta costruendo il suo team di “Preparazione” con ricercatori focalizzati sull’identificazione e la previsione dei “rischi di frontiera” associati ai suoi modelli di intelligenza artificiale più potenti. Una posizione chiave, il “Threat Modeler”, centralizzerà la valutazione del rischio attraverso le divisioni tecniche, di governance e politiche.
Crescono le tensioni con le agenzie governative
Queste assunzioni fanno seguito ai recenti scontri tra Anthropic e il Dipartimento di Guerra degli Stati Uniti (DOW). L’EDI ha richiesto l’accesso illimitato al chatbot Claude di Anthropic, al quale Anthropic ha opposto resistenza a causa delle preoccupazioni sulla potenziale sorveglianza di massa e sull’integrazione nei sistemi d’arma autonomi. L’amministratore delegato Dario Amodei ha espresso forti obiezioni ai contratti che impiegherebbero Claude per tali scopi.
Al contrario, OpenAI ha già ottenuto un accordo con il DOW per implementare la sua IA in ambienti classificati, anche se con “linee rosse” autoimposte contro la sorveglianza di massa e l’armamento autonomo. Questa divergenza evidenzia una crescente tensione tra le aziende di intelligenza artificiale che cercano di controllare l’uso della loro tecnologia e i governi desiderosi di sfruttarla per la sicurezza nazionale.
Le implicazioni più ampie
Il reclutamento di esperti in armi è un duro riconoscimento dei pericoli nel mondo reale posti dallo sviluppo incontrollato dell’intelligenza artificiale. Il fatto che le aziende si stiano preparando in modo proattivo agli scenari peggiori suggerisce che credono che il rischio di abusi sia credibile e immediato. Ciò solleva domande fondamentali sulla governance dell’IA, sull’equilibrio tra innovazione e sicurezza e sul ruolo delle aziende private nella gestione delle minacce esistenziali.
La risposta del settore a queste sfide plasmerà il futuro dell’intelligenza artificiale, determinando se diventerà uno strumento di progresso o un catalizzatore di disastri.























