Esto no es ciencia ficción. Es la realidad de marzo 2026.
El Pentágono acaba de hacer algo sin precedentes en la historia de la tecnología estadounidense: etiquetar a una empresa de IA americana como “riesgo para la cadena de suministro” — una designación normalmente reservada para adversarios extranjeros como China o Rusia.
El objetivo: Anthropic, los creadores de Claude.
El crimen: negarse a permitir que el Departamento de Defensa use su IA para vigilancia masiva de ciudadanos estadounidenses o armas autónomas.
La traición que nadie esperaba

Pero la historia se pone mejor.
Literalmente minutos después de que el Pentágono etiquetara a Anthropic como “amenaza”, firmó un contrato multimillonario con OpenAI. Sí, el competidor directo de Anthropic que aparentemente no tiene problemas con esos “detalles éticos”.
Y aquí viene el giro:
Más de 30 empleados de OpenAI y Google DeepMind — incluyendo a Jeff Dean, científico jefe de DeepMind — acaban de firmar un documento legal DEFENDIENDO a Anthropic.
Leíste bien. Los empleados de OpenAI defendiendo al enemigo. En corte. Públicamente.
¿Qué demonios está pasando?
El brief presentado ante el tribunal es devastador:
“La designación del gobierno de Anthropic como riesgo para la cadena de suministro fue un uso impropio y arbitrario del poder que tiene ramificaciones serias para nuestra industria.”
Los firmantes argumentan que si el Pentágono ya no estaba satisfecho con los términos del contrato con Anthropic, simplemente podía cancelar el contrato y buscar otro proveedor — no inventar una designación punitiva sin precedentes.

Las líneas rojas de Anthropic
Anthropic estableció límites claros en su contrato con el DOD:
- ❌ No vigilancia masiva de ciudadanos estadounidenses
- ❌ No armas autónomas que disparen sin intervención humana
- ✅ Todo lo demás está sobre la mesa
El Departamento de Defensa respondió que debería poder usar IA para “cualquier propósito legal” sin restricciones de un contratista privado.
Anthropic dijo: “No.”
Y el Pentágono decidió convertirlos en un “riesgo de seguridad nacional”.
Por qué esto importa (y debería preocuparte)
El brief de los empleados de OpenAI y Google es claro:
“Si se permite que esto proceda, este esfuerzo por castigar a una de las principales empresas de IA de Estados Unidos indudablemente tendrá consecuencias para la competitividad industrial y científica del país en inteligencia artificial — y más allá. Y congelará la deliberación abierta en nuestro campo sobre los riesgos y beneficios de los sistemas de IA actuales.”
Traducción: Si el gobierno puede destruir a una empresa de IA por tener ética, nadie más se atreverá a poner límites.
El plot twist financiero
Mientras el Pentágono intenta destruirla, Anthropic está rompiendo récords:
- 📈 Revenue anualizado: $19 mil millones (subió de $14B en semanas)
- 📈 Hace un año: $1 mil millones
- 📈 Crecimiento: 1,900% año contra año
El mercado ha hablado. Y está del lado de Anthropic.
Lo que viene
Anthropic ha demandado al Pentágono en dos tribunales federales:
- Corte del Distrito Norte de California
- Corte de Apelaciones del Circuito de DC
Pide que se anule la designación de “supply chain risk” y que se otorgue una suspensión inmediata. Según la demanda, la acción podría costarle “cientos de millones de dólares” en ingresos.
Mi take
Esto es histórico. Por primera vez, la industria de IA se está uniendo — cruzando líneas competitivas — para defender principios éticos.
Empleados de OpenAI defendiendo a Anthropic. Jeff Dean de Google firmando el brief. Esto no pasa nunca.
La pregunta que queda: ¿Es el gobierno de EE.UU. el guardián de la IA, o su mayor amenaza?
Seguiré actualizando esta historia. Suscríbete para no perderte lo que viene. 🔔

