Les principales sociétés d’intelligence artificielle, Anthropic et OpenAI, recrutent activement des spécialistes des armes et des explosifs pour atténuer le risque d’utilisation abusive catastrophique de leurs modèles d’IA avancés. Ces mesures soulignent une reconnaissance croissante au sein de l’industrie selon laquelle un accès non contrôlé à une IA puissante pourrait avoir des conséquences dévastatrices.
La recherche d’expertises spécialisées
Les deux sociétés ont publié des offres d’emploi recherchant des personnes possédant une connaissance approfondie des armes chimiques, des explosifs et des dispositifs de dispersion radiologique (bombes sales). Anthropic recherche spécifiquement un expert en politiques pour concevoir et surveiller des « garde-corps » pour ses systèmes d’IA, les empêchant ainsi d’être exploités à des fins malveillantes. Le rôle nécessite au moins cinq ans d’expérience dans la défense contre les armes et la capacité de répondre rapidement aux menaces croissantes détectées dans les invites des utilisateurs.
OpenAI, quant à lui, renforce son équipe « Préparation » avec des chercheurs axés sur l’identification et la prévision des « risques frontières » associés à ses modèles d’IA les plus puissants. Un poste clé, celui de « modélisateur de menaces », centralisera l’évaluation des risques entre les divisions techniques, de gouvernance et politiques.
Tensions croissantes avec les agences gouvernementales
Ces embauches font suite aux récents affrontements entre Anthropic et le Département américain de la Guerre (DOW). Le DOW a exigé un accès illimité au chatbot Claude d’Anthropic, ce à quoi Anthropic a résisté en raison de préoccupations concernant une potentielle surveillance de masse et son intégration dans des systèmes d’armes autonomes. Le PDG Dario Amodei a exprimé de fortes objections aux contrats qui emploieraient Claude à de telles fins.
En revanche, OpenAI a déjà conclu un accord avec le DOW pour déployer son IA dans des environnements classifiés, bien qu’avec des « lignes rouges » auto-imposées contre la surveillance de masse et l’armement autonome. Cette divergence met en évidence une tension croissante entre les sociétés d’IA cherchant à contrôler l’utilisation de leur technologie et les gouvernements désireux de l’exploiter pour la sécurité nationale.
Les implications plus larges
Le recrutement d’experts en armement est une claire reconnaissance des dangers réels posés par le développement incontrôlé de l’IA. Le fait que les entreprises se préparent de manière proactive aux pires scénarios suggère qu’elles croient que le risque d’utilisation abusive est crédible et immédiat. Cela soulève des questions fondamentales sur la gouvernance de l’IA, l’équilibre entre innovation et sécurité et le rôle des entreprises privées dans la gestion des menaces existentielles.
La réponse de l’industrie à ces défis façonnera l’avenir de l’IA, déterminant si elle deviendra un outil de progrès ou un catalyseur de désastre.























