Silicon Valley se está rebelando.
Cientos de trabajadores tech acaban de firmar una carta abierta exigiendo al Departamento de Defensa que retire la designación de Anthropic como “riesgo de cadena de suministro”.
La carta también pide al Congreso que investigue si el uso de estos poderes extraordinarios contra una empresa americana es apropiado.
Quién Firmó

La lista de firmantes incluye empleados de:
- OpenAI — Sí, la competencia directa de Anthropic
- IBM
- Slack
- Cursor
- Salesforce Ventures
- Y decenas de startups y fondos de VC
Que empleados de OpenAI firmen una carta defendiendo a Anthropic dice mucho sobre la gravedad de la situación.
El Ataque a Anthropic

Todo empezó cuando Anthropic se negó a ceder en dos puntos:
- No a la vigilancia masiva de ciudadanos americanos
- No a armas autónomas que disparen sin humanos en el loop
El Pentágono dijo que no planeaba hacer ninguna de esas cosas, pero que no aceptaba ser limitado por las reglas de un proveedor.
Cuando el CEO Dario Amodei se negó, Trump ordenó a todas las agencias federales dejar de usar Anthropic. Horas después, Pete Hegseth fue más lejos:
“Efectivo inmediatamente, ningún contratista, proveedor o socio que haga negocios con el ejército de Estados Unidos puede tener actividad comercial con Anthropic.”
— Pete Hegseth, Secretario de Defensa
Por Qué Esto Es Peligroso
La carta abierta lo dice claramente:
“Cuando dos partes no pueden acordar términos, lo normal es separarse y trabajar con un competidor. Esta situación sienta un precedente peligroso. Castigar a una empresa americana por negarse a aceptar cambios en un contrato envía un mensaje claro: acepta los términos que el gobierno demande, o enfrenta represalias.”
La Ironía de OpenAI
Momentos después del ataque a Anthropic, OpenAI anunció su propio acuerdo con el Pentágono.
Pero incluso un investigador de OpenAI, Boaz Barak, escribió que bloquear la vigilancia masiva es también su línea roja personal:
“Si algo bueno puede salir de los eventos de la última semana, sería que en la industria de IA empecemos a tratar el uso de IA para abusos gubernamentales y vigilancia de su propio pueblo como un riesgo catastrófico por derecho propio.”
¿Qué Sigue?

Anthropic dice que la designación es “legalmente inválida” y que la impugnará en corte.
El gobierno necesita completar una evaluación de riesgo y notificar al Congreso antes de que los socios militares tengan que cortar lazos con Anthropic.
Pero el daño ya está hecho. El mensaje a toda la industria tech es claro:
Cooperas con el gobierno sin condiciones, o te destruyen.
Y eso debería preocuparnos a todos.

