Empresas de inteligencia artificial contratan expertos en armas en medio de crecientes preocupaciones de seguridad

9

Las empresas líderes en inteligencia artificial, Anthropic y OpenAI, están reclutando activamente especialistas en armas y explosivos para mitigar el potencial de un uso indebido catastrófico de sus modelos avanzados de IA. Las medidas subrayan un creciente reconocimiento dentro de la industria de que el acceso sin control a una poderosa IA podría tener consecuencias devastadoras.

La búsqueda de conocimientos especializados

Ambas empresas han publicado ofertas de trabajo que buscan personas con un profundo conocimiento de armas químicas, explosivos y dispositivos de dispersión radiológica (bombas sucias). Anthropic busca específicamente un experto en políticas para diseñar y monitorear “barandillas” para sus sistemas de inteligencia artificial, evitando que sean explotados con fines maliciosos. El puesto requiere al menos cinco años de experiencia en defensa de armas y la capacidad de responder rápidamente a las crecientes amenazas detectadas en las indicaciones de los usuarios.

Mientras tanto, OpenAI está construyendo su equipo de “Preparación” con investigadores centrados en identificar y pronosticar “riesgos fronterizos” asociados con sus modelos de IA más potentes. Un puesto clave, el “Modelador de amenazas”, centralizará la evaluación de riesgos en las divisiones técnicas, de gobernanza y de políticas.

Crecientes tensiones con las agencias gubernamentales

Estas contrataciones siguen a los recientes enfrentamientos entre Anthropic y el Departamento de Guerra de Estados Unidos (DOW). El DOW exigió acceso sin restricciones al chatbot Claude de Anthropic, a lo que Anthropic se resistió debido a preocupaciones sobre la posible vigilancia masiva y la integración en sistemas de armas autónomos. El director general, Dario Amodei, expresó fuertes objeciones a los contratos que utilizarían a Claude para tales fines.

Por el contrario, OpenAI ya ha conseguido un acuerdo con el DOW para desplegar su IA en entornos clasificados, aunque con “líneas rojas” autoimpuestas contra la vigilancia masiva y el uso de armas autónomas. Esta divergencia pone de relieve una tensión creciente entre las empresas de IA que buscan controlar el uso de su tecnología y los gobiernos deseosos de aprovecharla para la seguridad nacional.

Las implicaciones más amplias

El reclutamiento de expertos en armas es un claro reconocimiento de los peligros del mundo real que plantea el desarrollo desenfrenado de la IA. El hecho de que las empresas se estén preparando proactivamente para los peores escenarios sugiere que creen que el riesgo de uso indebido es creíble e inmediato. Esto plantea preguntas fundamentales sobre la gobernanza de la IA, el equilibrio entre innovación y seguridad, y el papel de las empresas privadas en la gestión de amenazas existenciales.

La respuesta de la industria a estos desafíos dará forma al futuro de la IA, determinando si se convierte en una herramienta para el progreso o en un catalizador del desastre.