As principais empresas de inteligência artificial, Anthropic e OpenAI, estão a recrutar ativamente especialistas em armas e explosivos para mitigar o potencial de uso indevido catastrófico dos seus modelos avançados de IA. As medidas sublinham um reconhecimento crescente dentro da indústria de que o acesso não controlado a uma IA poderosa pode ter consequências devastadoras.
A busca por expertise especializada
Ambas as empresas publicaram vagas de emprego buscando indivíduos com profundo conhecimento de armas químicas, explosivos e dispositivos de dispersão radiológica (bombas sujas). A Anthropic procura especificamente um especialista em políticas para projetar e monitorar “proteções” para seus sistemas de IA, evitando que sejam explorados para fins maliciosos. A função requer pelo menos cinco anos de experiência em defesa de armas e a capacidade de responder rapidamente às ameaças crescentes detectadas nas instruções do usuário.
Enquanto isso, a OpenAI está construindo sua equipe de “Preparação” com pesquisadores focados em identificar e prever “riscos de fronteira” associados aos seus modelos de IA mais poderosos. Uma posição-chave, o “Modelador de Ameaças”, centralizará a avaliação de riscos nas divisões técnicas, de governança e de políticas.
Aumento das tensões com agências governamentais
Essas contratações seguem confrontos recentes entre a Anthropic e o Departamento de Guerra dos EUA (DOW). A DOW exigiu acesso irrestrito ao chatbot Claude da Anthropic, ao qual a Anthropic resistiu devido a preocupações com a potencial vigilância em massa e integração em sistemas de armas autónomos. O CEO Dario Amodei expressou fortes objeções aos contratos que empregariam Claude para tais fins.
Em contraste, a OpenAI já garantiu um acordo com a DOW para implantar a sua IA em ambientes classificados, embora com “linhas vermelhas” auto-impostas contra a vigilância em massa e o armamento autónomo. Esta divergência realça uma tensão crescente entre as empresas de IA que procuram controlar a utilização da sua tecnologia e os governos ansiosos por aproveitá-la para a segurança nacional.
As implicações mais amplas
O recrutamento de especialistas em armas é um claro reconhecimento dos perigos do mundo real representados pelo desenvolvimento descontrolado da IA. O facto de as empresas estarem a preparar-se proactivamente para os piores cenários sugere que acreditam que o risco de utilização indevida é credível e imediato. Isto levanta questões fundamentais sobre a governação da IA, o equilíbrio entre inovação e segurança, e o papel das empresas privadas na gestão de ameaças existenciais.
A resposta da indústria a estes desafios moldará o futuro da IA, determinando se esta se tornará uma ferramenta para o progresso ou um catalisador para o desastre.























