Prohibición de IA del Pentágono bloqueada temporalmente por un juez: Anthropic gana la primera batalla

15

Un juez federal detuvo temporalmente la inclusión de la empresa de inteligencia artificial Anthropic en la lista negra del Pentágono, lo que marca una victoria significativa para la compañía en su batalla legal en curso. La orden judicial preliminar, otorgada por la jueza Rita F. Lin del Distrito Norte de California, revierte la designación de “riesgo de la cadena de suministro” del gobierno mientras avanza el caso. Esta medida se produce después de semanas de creciente tensión entre Anthropic y el Departamento de Defensa sobre el uso aceptable de la IA.

La disputa central: seguridad versus control

En el centro del conflicto está la negativa de Anthropic a permitir que su IA, Claude, se utilice para armas letales autónomas o vigilancia masiva doméstica. El Pentágono, el subsecretario Pete Hegseth, presionó para que los contratos incluyeran términos como “cualquier uso legal”, exigiendo esencialmente acceso sin restricciones. Anthropic se resistió, lo que llevó a la designación punitiva y a amenazas que podrían paralizar su negocio.

“Castigar a Anthropic por llevar el escrutinio público a la posición contractual del gobierno es una clásica represalia ilegal de la Primera Enmienda”, escribió la jueza Lin en su orden.

La decisión del Pentágono de etiquetar a Anthropic como un riesgo para la cadena de suministro (una designación generalmente reservada para entidades extranjeras vinculadas a adversarios) provocó críticas bipartidistas. La medida generó preocupaciones sobre represalias contra empresas que disienten de la política administrativa. La cuestión no es si los militares pueden elegir a sus proveedores de IA, sino si sobrepasaron los límites legales al castigar la disidencia.

Riesgos financieros y confusión de contratistas

Anthropic afirma que la designación ya ha causado una confusión generalizada entre los socios, y decenas de ellos buscan aclaraciones sobre su capacidad para continuar trabajando con la empresa. Los documentos judiciales sugieren posibles pérdidas de ingresos que oscilan entre cientos de millones y miles de millones de dólares. Las propias declaraciones del gobierno ante los tribunales han enturbiado aún más las aguas.

Durante una audiencia, el juez Lin presionó a los funcionarios sobre si los contratistas serían despedidos por usar la tecnología de Anthropic incluso para trabajos no relacionados, como el suministro de papel higiénico al ejército. El representante del Departamento de Defensa tuvo dificultades para dar respuestas claras, lo que generó dudas sobre el alcance de la prohibición.

Mensajes contradictorios del Pentágono

La situación se complicó aún más por las publicaciones públicas del Secretario Hegseth en X (anteriormente Twitter), que inicialmente parecía prohibir toda actividad comercial con Anthropic. Posteriormente, el Pentágono restó importancia a la severidad de la declaración, afirmando que “en realidad no pretendía” ser una prohibición general. El juez Lin cuestionó deliberadamente estos mensajes contradictorios durante la audiencia.

¿Qué pasa después?

Aún faltan semanas o meses para un veredicto final. Anthropic mantiene su enfoque en trabajar con el gobierno para garantizar una implementación segura de la IA, pero la demanda destaca un debate más amplio sobre la ética de la IA, la seguridad nacional y el discurso corporativo. Este caso sienta un precedente sobre cómo el gobierno de EE. UU. maneja la adquisición de IA en el futuro, particularmente en lo que respecta a las empresas que priorizan la seguridad sobre el acceso ilimitado.

La batalla legal subraya una tensión crítica: la necesidad de los militares de obtener una ventaja tecnológica frente a los riesgos potenciales de un despliegue de IA sin control. El resultado probablemente dará forma a la relación entre el gobierno y los desarrolladores de IA en los próximos años.