Trump acaba de hacer algo que nadie esperaba: tratar a una empresa americana de IA como si fuera una amenaza extranjera. Anthropic, la compañía detrás de Claude, fue designada oficialmente como “riesgo para la cadena de suministro” — el mismo trato que recibió Huawei.
No, no es una broma. No es un error. El Pentágono removió a Claude de sus sistemas clasificados porque Dario Amodei, CEO de Anthropic, se negó a una cosa: permitir que su IA fuera usada para armas autónomas letales o vigilancia masiva de ciudadanos estadounidenses.
Leíste bien. Le dijeron que no al gobierno de Estados Unidos.
La línea roja que Anthropic no cruzó

Todo comenzó con dos “líneas rojas” que Anthropic estableció en su contrato con el Departamento de Defensa:
- No a la vigilancia masiva: Claude no puede ser usado para espiar a ciudadanos estadounidenses en territorio nacional.
- No a las armas autónomas: Claude no puede controlar sistemas de armas letales sin supervisión humana.
El Pentágono respondió: “Queremos acceso a Claude para todo uso legal.”
Anthropic respondió: “No.”
El 27 de febrero de 2026, las negociaciones colapsaron. Y entonces Trump intervino personalmente.
Trump ordena: “CESEN INMEDIATAMENTE todo uso de Anthropic”

La orden fue directa y en mayúsculas — como todo lo que hace Trump. Todas las agencias federales deben cesar inmediatamente el uso de tecnología de Anthropic.
Pero aquí viene lo surreal: Claude sigue siendo usado por el Pentágono en la guerra con Irán. CBS News reportó la semana pasada que el modelo de IA de Anthropic continúa operando en sistemas militares mientras se supone que está siendo removido.
Pete Hegseth, Secretario de Defensa, formalizó la designación de “riesgo de cadena de suministro” — una etiqueta que antes solo se había usado contra empresas de países adversarios: China, Rusia, Irán, Corea del Norte.
Anthropic es una empresa americana, fundada en San Francisco, por ex-empleados de OpenAI. Y ahora está en la misma lista que Huawei.
La demanda: Anthropic contraataca

El 9 de marzo, Anthropic presentó dos demandas federales contra la administración Trump:
- Una en la Corte de Distrito de California (48 páginas detallando las acciones ilegales)
- Otra en la Corte de Apelaciones de D.C. pidiendo revisar la designación del Pentágono
El argumento central: el gobierno no puede castigar a una empresa por ejercer su libertad de expresión. Anthropic tiene derecho a establecer límites éticos en cómo se usa su tecnología.
“La Constitución no permite que el gobierno use su enorme poder para castigar a una empresa por su discurso protegido.”
— Demanda de Anthropic contra el gobierno federal
La Casa Blanca respondió llamando a Anthropic una “empresa radical de izquierda woke” que intenta dictar cómo opera el ejército más poderoso del mundo.
¿Por qué esto importa para ti?
Este caso va mucho más allá de una pelea legal entre una startup y el gobierno. Es el primer enfrentamiento directo entre la ética de la IA y el poder militar.
Las preguntas que se están definiendo ahora:
- ¿Puede una empresa de IA poner límites éticos a gobiernos?
- ¿Qué pasa cuando la seguridad nacional choca con los derechos humanos?
- ¿Estamos listos para armas controladas por IA sin supervisión humana?
Microsoft, Google y Amazon han dicho que seguirán usando Claude — pero solo fuera de contratos de defensa. Es un equilibrio frágil.
Lo que viene
Los expertos legales consultados por Reuters dicen que Anthropic tiene un caso fuerte. La empresa no es un “adversario” bajo ninguna definición legal, y Hegseth no explicó cómo Claude representa un riesgo real para la cadena de suministro.
Mientras tanto, Google aprovechó el caos y anunció un contrato con el Pentágono para trabajo no clasificado — justo un día después de que Anthropic demandara al gobierno.
El mensaje es claro: si no juegas bajo las reglas del gobierno, alguien más lo hará.
Pero Dario Amodei parece dispuesto a pelear. Y esta batalla apenas comienza.
Fuentes: Reuters, CBS News, NPR

