Una jueza federal lo dijo claro en la corte: el blacklist del Pentágono contra Anthropic “parece un intento de castigar” a la empresa por hablar públicamente sobre seguridad de IA en operaciones militares.
La jueza Rita Lin en San Francisco no se anduvo con rodeos. Cuando los abogados del gobierno dijeron que Anthropic fue designada “riesgo de cadena de suministro” porque “podría instalar un kill switch”, Lin respondió: “Lo que escucho es que si un proveedor de TI es terco e insiste en ciertos términos… puede ser designado como riesgo de seguridad. Eso parece un estándar muy bajo.”
La guerra del Pentágono contra Anthropic
Todo empezó cuando Anthropic negoció el uso de Claude en la plataforma GenAI.mil del Departamento de Defensa. La empresa puso condiciones: nada de armas autónomas sin supervisión humana, nada de vigilancia masiva de ciudadanos estadounidenses.
El Pentágono quería acceso irrestricto “para todos los propósitos legales”. Anthropic dijo que no. Y entonces vino la represalia.
El abogado del gobierno, Eric Hamilton, fue directo: “Anthropic no solo está siendo terca. Está levantando preocupaciones al DOD sobre cómo el DOD usa su tecnología en misiones militares.”
Traducción: “¿Cómo se atreven a cuestionarnos?”
Mi take: Esto va más allá de Anthropic
Seamos honestos. No soy fan de ninguna megacorporación. Pero lo que está pasando aquí debería preocupar a todos los que trabajamos con tecnología — especialmente a los que construimos con IA.
El precedente es escalofriante: Si una empresa de IA dice “queremos límites éticos en cómo usan nuestra tecnología”, el gobierno puede declararla “riesgo de seguridad nacional” y destruirla comercialmente.
¿Qué pasa si mañana tu startup de automatización dice “no vamos a ayudar a vigilar empleados 24/7”? ¿También serás “riesgo de cadena de suministro”?
Anthropic tenía un contrato de $200 millones con el Pentágono. Fue la primera empresa de IA en desplegar modelos en redes clasificadas. Y ahora Amazon, Microsoft y Palantir — sus socios comerciales — tienen que certificar que no usan Claude o perder sus propios contratos con Defensa.
Es una máquina de destrucción de reputación y de negocio.
Lo que dijo Trump
Después de que las negociaciones fracasaron, Trump publicó en Truth Social: “NOSOTROS decidiremos el destino de nuestro país — NO alguna empresa de IA radical de izquierda fuera de control dirigida por gente que no tiene idea de lo que es el Mundo real.”
Ese fue el pistoletazo de salida para el blacklist.
Qué sigue
La jueza Lin dijo que emitirá su decisión en los próximos días. Si otorga la medida cautelar, Anthropic podrá seguir operando con contratistas y agencias federales mientras el caso avanza.
Si no la otorga, la empresa dice que perderá miles de millones y su reputación quedará permanentemente dañada.
Qué deberías hacer
Si estás construyendo con IA — especialmente si vendes a empresas o gobiernos — este caso es de lectura obligatoria.
Tres lecciones:
- Documenta todo. Anthropic puede pelear porque tiene registros de cada negociación.
- Ten claro tu marco ético. Decide dónde están tus líneas rojas ANTES de que un cliente grande te presione.
- Diversifica tu base de clientes. Depender del gobierno puede ser lucrativo hasta que no lo es.
La IA está entrando en territorio donde las decisiones éticas tienen consecuencias de miles de millones de dólares. Y el que no defina sus límites, dejará que otros los definan por él.
⚡ Sígueme en @jorgerazo para análisis diario de IA desde la trinchera.

