Las desinstalaciones de ChatGPT se dispararon un 295% en un solo día. Claude subió al #1 del App Store. Y todo porque Sam Altman acaba de hacer exactamente lo que prometió que nunca haría.
Esta semana, la industria de la inteligencia artificial experimentó su momento más controversial desde la creación de ChatGPT. Sam Altman, CEO de OpenAI, firmó un acuerdo con el Pentágono que ha dividido a Silicon Valley y provocado un éxodo masivo de usuarios.
El acuerdo que nadie vio venir

Todo comenzó cuando Dario Amodei, CEO de Anthropic (la empresa detrás de Claude), se negó rotundamente a ceder ante las demandas del Pentágono. La posición de Amodei fue clara: ningún uso de IA para armas autónomas ni vigilancia masiva de ciudadanos estadounidenses.
El gobierno le dio un ultimátum. Amodei no cedió.
Trump respondió llamando a Anthropic una “compañía radical de izquierda y woke” y ordenando que todas las agencias federales eliminen gradualmente el uso de herramientas de Anthropic en un período de seis meses.
La “traición” de Sam Altman

Mientras Anthropic resistía, OpenAI hizo exactamente lo opuesto. Al día siguiente del ultimátum, Sam Altman anunció que había llegado a un acuerdo permitiendo que los modelos de OpenAI se desplieguen en situaciones clasificadas del ejército.
Fue un shock para la comunidad tecnológica. Reportes indicaban que OpenAI mantendría las mismas líneas rojas que Anthropic. No fue así.
La reacción fue inmediata y devastadora:
- Las desinstalaciones de ChatGPT aumentaron 295% en un solo día
- Claude de Anthropic subió al puesto #1 del App Store
- Caitlin Kalinowski, directora de robótica de OpenAI, renunció diciendo que el acuerdo fue “apresurado sin las salvaguardas definidas”
- Cientos de empleados de Google y OpenAI firmaron una carta abierta apoyando la posición de Anthropic
Lo que está en juego
Este no es solo un drama corporativo. Es un momento definitorio para la industria de la IA.
El Pentágono ha declarado a Anthropic como “riesgo de cadena de suministro” — una designación normalmente reservada para adversarios extranjeros. Esto significa que cualquier empresa que trabaje con Anthropic no podrá hacer negocios con el ejército estadounidense.
Anthropic ya demandó al Departamento de Defensa para impugnar esta designación.

¿Qué significa esto para ti?
Si usas ChatGPT, ahora sabes que OpenAI está dispuesto a priorizar contratos militares sobre sus principios declarados. Si usas Claude, sabes que Anthropic está dispuesto a perder contratos gubernamentales millonarios antes de cruzar ciertas líneas.
La decisión de qué IA usar ya no es solo técnica. Es ética.
OpenAI insiste en que su acuerdo “deja claras sus líneas rojas: no armas autónomas y no vigilancia autónoma.” Pero después de lo que acaba de pasar, ¿quién les cree?
El tablero de ajedrez de la IA
Mientras esto sucede, otras piezas se mueven:
- Nvidia anunció que dejará de invertir en OpenAI y Anthropic antes de que ambas salgan a bolsa este año
- Google, Amazon, Meta y Microsoft planean gastar $650 mil millones en centros de datos solo este año
- La escasez de chips de memoria está a punto de disparar los precios de smartphones, laptops y autos
- xAI de Elon Musk está en plena reestructuración después de perder 9 de sus 11 co-fundadores originales
Estamos presenciando el momento en que la industria de la IA dejó de ser un juego tecnológico para convertirse en un campo de batalla geopolítico.
¿Qué opinas de la decisión de OpenAI? ¿Seguirás usando ChatGPT o migrarás a Claude? Déjame tu comentario.

