La creciente incorporación de inteligencia artificial en tareas de defensa ha detonado un conflicto sin precedentes entre la empresa tecnológica Anthropic y el gobierno de Estados Unidos.
La disputa que ha detonado recientemente gira en torno al uso de su modelo de IA, Claude, en operaciones militares clasificadas, así como a los límites éticos que la compañía impone contractualmente a sus clientes, incluido el propio Departamento de Defensa.
El enfrentamiento escaló hasta una directiva presidencial que ordena suspender el uso de tecnología de la empresa en dependencias federales, lo que abrió un debate sobre quién debe fijar las reglas en materia de inteligencia artificial aplicada a la seguridad nacional.
El origen: Claude en una operación clasificada
El punto de quiebre ocurrió el 3 de enero de 2026. Ese día, fuerzas especiales estadounidenses ejecutaron una misión en Caracas para capturar al presidente venezolano Nicolás Maduro.
Maduro fue trasladado a Estados Unidos, donde enfrenta cargos federales relacionados con narcotráfico y armas ante un tribunal en Nueva York.
Durante la operación, el modelo Claude fue desplegado a través de la infraestructura clasificada de Palantir Technologies. Aunque los detalles permanecen reservados, reportes apuntan a tareas de análisis de inteligencia, posiblemente procesamiento de imágenes satelitales y correlación de datos estratégicos.
Se trata del primer caso documentado de un modelo de IA de frontera utilizado en una operación clasificada del Pentágono.
Días después, un empleado de Anthropic consultó internamente sobre ese uso con un contacto en Palantir. La indagatoria encendió alertas en el Departamento de Defensa y evidenció tensiones latentes.
Las “líneas rojas” de Anthropic
Anthropic mantiene un contrato de 200 millones de dólares con el Departamento de Defensa. Sin embargo, sus términos de servicio incluyen restricciones explícitas.
La empresa prohíbe el uso de Claude para vigilancia masiva doméstica o para sistemas de armas letales autónomas sin supervisión humana directa. Estas limitaciones están incorporadas tanto en contratos como en salvaguardas técnicas del modelo.
Para la compañía, dichas condiciones forman parte de su arquitectura de gobernanza ética. Para sectores del Pentágono, representan una interferencia privada en decisiones estratégicas del Estado.
El ultimátum del Pentágono
Las fricciones escalaron a mediados de febrero de 2026.
El 24 de febrero, el secretario de Defensa Pete Hegseth se reunió con el CEO de Anthropic, Dario Amodei. En ese encuentro, el funcionario planteó un ultimátum: firmar un acuerdo que permitiera acceso irrestricto a Claude “para todos los propósitos legales” antes del 27 de febrero a las 5:01 p.m. ET.
De lo contrario, el gobierno consideraría cancelar el contrato, designar a la empresa como riesgo en la cadena de suministro o incluso invocar la Defense Production Act.
El 25 de febrero, el Pentágono consultó a contratistas como Boeing y Lockheed Martin sobre su dependencia tecnológica de Claude, anticipando un posible veto.
Anthropic rechazó formalmente las exigencias el 26 de febrero. Amodei sostuvo que conceder acceso ilimitado contradecía los principios éticos de la empresa.
A statement from Anthropic CEO, Dario Amodei, on our discussions with the Department of War.https://t.co/rM77LJejuk
— Anthropic (@AnthropicAI) February 26, 2026
La intervención de Donald Trump
El 27 de febrero, el presidente Donald Trump emitió una directiva que ordena a todas las agencias federales cesar el uso de tecnología de Anthropic.
El Departamento de Defensa dispone de un periodo de transición de seis meses. Además, la empresa fue designada como riesgo en la cadena de suministro, una medida usualmente aplicada a entidades extranjeras.
Trump acusó públicamente a la compañía de anteponer posturas ideológicas a la seguridad nacional y advirtió posibles consecuencias legales si no cooperaba.
— Rapid Response 47 (@RapidResponse47) February 27, 2026
Reacciones políticas e internacionales
En el Congreso, el senador Mark Warner cuestionó si la medida obedecía a criterios técnicos o políticos.
Dentro del sector tecnológico, empleados de OpenAI y Google expresaron respaldo a Anthropic mediante cartas abiertas, alertando sobre el impacto que este precedente podría tener en la industria.
A nivel internacional, el ministro de Relaciones Exteriores de Venezuela exigió la liberación de Maduro, mientras que el secretario general de la ONU llamó a reforzar el diálogo sobre regulación de inteligencia artificial militar.
Un precedente para la industria de la IA
La directiva presidencial ya está en vigor y Anthropic anunció que impugnará la decisión en tribunales.
Más allá del contrato específico, el episodio abre un debate de fondo: ¿hasta qué punto puede un gobierno presionar u obligar a una empresa privada a permitir el uso irrestricto de su tecnología para fines bélicos, potencialmente letales, aun cuando esa empresa ha establecido límites explícitos?
El desenlace no solo definirá la relación entre el Estado y Anthropic, sino que podría sentar un precedente para toda la industria de la inteligencia artificial respecto a la autonomía corporativa, la ética tecnológica y el poder coercitivo del aparato gubernamental en materia de defensa.














