Anthropic declarada riesgo de seguridad nacional. OpenAI cierra contrato con el Pentágono. Memos filtrados con acusaciones de mentiras. Los CEOs que se niegan a tomarse de las manos. Esta es la guerra de IA más brutal de la historia.

Dario Amodei acaba de llamar a Sam Altman “mentiroso” frente a 4,000 empleados de Anthropic. El memo filtrado esta semana expone la guerra fría más brutal de Silicon Valley — y el Pentágono está en medio.

La Traición Que Nadie Vio Venir

Hace apenas una semana, Anthropic era el favorito del Departamento de Defensa de Estados Unidos. Un contrato de $200 millones de dólares en la mesa. Claude, su modelo de IA, ya integrado en sistemas de targeting militar.

Hoy, Anthropic es oficialmente un “riesgo para la cadena de suministro” — la primera empresa estadounidense en recibir esta designación en la historia.

¿Qué pasó?

Dario Amodei, el CEO de Anthropic, se negó a eliminar una cláusula de su contrato: nada de vigilancia masiva, nada de armas autónomas letales. Pete Hegseth, el Secretario de Guerra, exigió que la tecnología pudiera usarse para “cualquier propósito legal”.

Amodei no cedió.

Y mientras Anthropic negociaba principios, Sam Altman cerró el trato en cuestión de días.

“Mentiras Descaradas” — El Memo Filtrado

El viernes pasado, Dario Amodei envió un mensaje a todos los empleados de Anthropic vía Slack. El memo, filtrado a Fortune, no tiene precedentes en su agresividad:

“Los mensajes de OpenAI son mendaces… un ejemplo de quiénes son realmente. Muchos de los comentarios de Sam Altman son straight up lies — puro gaslighting.”

Esto no es competencia normal. Es guerra abierta entre los dos laboratorios de IA más poderosos del mundo.

Y hay contexto que hace esto aún más explosivo: Dario Amodei fundó Anthropic después de renunciar a OpenAI en 2021, preocupado por la dirección de la empresa. Se llevó a su hermana Daniela y a una docena de investigadores clave.

Sam Altman nunca lo perdonó.

El Negocio Detrás del Drama

Más allá del teatro corporativo, los números cuentan otra historia:

  • OpenAI: $25 mil millones en ingresos anualizados (marzo 2026)
  • Anthropic: $19 mil millones — casi triplicándose en tres meses
  • Participación enterprise: OpenAI cayó del 50% al 27%. Anthropic subió al 40%.

Claude está ganando terreno en empresas. El fin de semana pasado, Claude superó a ChatGPT en el App Store de Apple por primera vez.

Anthropic está teniendo un 2026 espectacular. Y apenas es marzo.

Lo Que Esto Significa Para Ti

Si usas herramientas de IA — ya sea para trabajo, automatización o desarrollo — esto importa.

OpenAI ahora tiene acceso directo al aparato militar estadounidense. Pueden construir su propio “safety stack” — un sistema de controles que ellos mismos definen. El gobierno aceptó que si el modelo rechaza una tarea, no obligará a OpenAI a cumplirla.

¿Suena bien? Depende de quién define qué es una “tarea aceptable”.

Sam Altman mismo admitió en un AMA de X que el acuerdo “fue apresurado y las optics no se ven bien”.

Mientras tanto, Anthropic acaba de publicar un Super Bowl ad — que Altman llamó “claramente deshonesto” y “doublespeak”.

En una cumbre reciente con el Primer Ministro de India Narendra Modi, Altman y Amodei se negaron a tomarse de las manos para una foto grupal. El video se volvió viral.

Esto ya no es competencia. Es personal.

La Pregunta Incómoda

Si los CEOs de las dos empresas de IA más influyentes del mundo no pueden ni verse a la cara, ¿qué tan realista es esperar que cooperen en seguridad de IA?

Ambas empresas firmaron compromisos voluntarios de seguridad. Ambas se han evaluado mutuamente antes de lanzar modelos. Pero la presión competitiva ya ha cambiado las reglas:

  • Anthropic modificó su Política de Escalamiento Responsable — ya no detendrá el desarrollo de un modelo solo porque no sabe cómo hacerlo seguro.
  • OpenAI eliminó prohibiciones explícitas de uso militar en 2024 y reorientó recursos de investigación de seguridad hacia productos.

Jan Leike, el ex-líder de superalineación de OpenAI que renunció para irse a Anthropic, escribió en X que en OpenAI “la cultura de seguridad quedó en segundo plano frente a productos brillantes”.

El Futuro de la IA Se Decide Ahora

No hay regulación seria en Estados Unidos. Los esfuerzos internacionales de seguridad de IA están estancados. El mundo ha apostado a la autorregulación de una industria cuyos líderes literalmente se odian.

Anthropic está demandando al Pentágono para revertir la designación de “riesgo de cadena de suministro”. OpenAI está construyendo capacidades de defensa nacional. Y en medio de todo, ambos modelos se vuelven más poderosos cada mes.

La pregunta no es si la IA cambiará todo. La pregunta es: ¿quién la controla mientras lo hace?


Fuentes: Fortune, Washington Post, The Information, reportes de analistas. Todas las cifras son públicas o han sido verificadas por múltiples medios.

Avatar de Jorge Razo

Jorge Razo

⚡️ Entrenador de emprendedores digitales | 🤯 Growth Hacker | 🎙️ Podcast “Capos Digitales” | 🌎 Viajo por el mundo | Emprendimientos en IG: @ekoos_mx @pasedirectomx @cursocie @la_conciertera

Ver todo
0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x