Trump prohibió la IA de Anthropic el viernes. El sábado, la usó para planificar los ataques a Irán. La contradicción que expone la dependencia militar de Estados Unidos en inteligencia artificial.

El viernes por la tarde, Donald Trump ordenó a todas las agencias federales dejar de usar Claude, la IA de Anthropic. El sábado por la noche, bombardeó Irán usando exactamente esa tecnología.

No es un error de redacción. Es exactamente lo que pasó.

Según el Wall Street Journal, los ataques aéreos de Estados Unidos contra Irán del sábado 1 de marzo fueron planificados con ayuda de Claude, el modelo de inteligencia artificial de Anthropic. La misma IA que Trump había prohibido menos de 24 horas antes.

¿Qué está pasando entre el Pentágono y Anthropic?

Aquí está el contexto que necesitas entender:

En enero de 2026, el Secretario de Defensa Pete Hegseth publicó un memorándum exigiendo que todos los contratos de IA militar incluyan la frase “any lawful use” (cualquier uso legal). Esto significa que las empresas de IA deben permitir que el ejército use sus modelos para:

  • Vigilancia masiva doméstica
  • Armas autónomas letales (IA que decide matar sin intervención humana)

OpenAI y xAI (la empresa de Elon Musk) aceptaron los nuevos términos inmediatamente.

Anthropic se negó.

Las “líneas rojas” de Anthropic

El CEO de Anthropic, Dario Amodei, ha sido claro: hay exactamente dos cosas que su empresa no permitirá:

  1. Operaciones cinéticas autónomas — Robots que matan sin humanos en el proceso de decisión
  2. Vigilancia masiva doméstica — Porque las leyes “no han alcanzado lo que la IA puede hacer”

En su declaración oficial, Amodei escribió: “Las amenazas no cambian nuestra posición. No podemos en buena conciencia acceder a su solicitud.”

La respuesta de Trump (textual)

El viernes 27 de febrero, Trump publicó en Truth Social:

“LOS ESTADOS UNIDOS DE AMÉRICA NUNCA PERMITIRÁN QUE UNA EMPRESA RADICAL DE IZQUIERDA Y WOKE DICTE CÓMO NUESTRO GRAN EJÉRCITO PELEA Y GANA GUERRAS. […] Los locos de izquierda de Anthropic han cometido un ERROR DESASTROSO al intentar INTIMIDAR al Departamento de Guerra. […] Por lo tanto, ordeno a TODAS las agencias federales CESAR INMEDIATAMENTE todo uso de la tecnología de Anthropic.”

Después tuvo que retractarse parcialmente, estableciendo un período de transición de 6 meses porque… el Pentágono depende de Claude.

Por qué Claude es tan importante para el Pentágono

Aquí está el problema que Trump no anticipó:

Claude es el ÚNICO modelo de IA con certificación “Impact Level 6”, lo que significa que es el único autorizado para operar en las redes clasificadas del Pentágono. ChatGPT, Grok y Gemini no tienen esta certificación.

Claude está integrado en:

  • La plataforma de IA de Palantir
  • La nube de máxima seguridad de Amazon AWS
  • Sistemas de inteligencia militar e identificación de objetivos

Si Anthropic es clasificada como “riesgo de cadena de suministro” (la amenaza del Pentágono), todas las empresas que trabajan con el gobierno tendrían que eliminar Claude de sus sistemas. Eso incluye a contratistas como Anduril y Palantir.

La ironía brutal: la IA “prohibida” planeó el ataque a Irán

Según reportes, Claude fue utilizado para:

  • Evaluaciones de inteligencia
  • Identificación de objetivos
  • Planificación de los ataques del sábado

Todo esto horas después de que Trump ordenara dejar de usar la tecnología.

Mientras tanto, OpenAI firma acuerdo con el Pentágono

Sam Altman, CEO de OpenAI, anunció que llegaron a un acuerdo que permite al ejército “desplegar nuestros modelos en su red clasificada”.

OpenAI dice que pidió prohibiciones contra vigilancia masiva doméstica y “responsabilidad humana en el uso de la fuerza, incluyendo sistemas de armas autónomas”. Pero la diferencia clave es que OpenAI firmó primero y negoció después.

Altman incluso pidió que el Pentágono ofrezca los mismos términos a todas las empresas de IA. Esencialmente: “Si nosotros aceptamos, todos deberían aceptar.”

Lo que esto significa para ti

Este conflicto establece un precedente masivo:

  1. Las empresas de IA ya no pueden mantenerse neutrales — El gobierno está forzando a elegir bandos
  2. La IA militar está aquí — No es ciencia ficción. Ya se usa para planificar operaciones reales
  3. “Responsible AI” vs. “Any Lawful Use” — Dos visiones completamente opuestas sobre el futuro de la tecnología
  4. Los valores corporativos tienen límites — Cuando el gobierno amenaza con destruir tu negocio, ¿cuánto tiempo mantienes tus principios?

El experimento que estamos viviendo

Un ex-asesor de Trump, Dean Ball, llamó a las tácticas del Pentágono contra Anthropic “intento de asesinato corporativo”. Un ex-funcionario del Departamento de Justicia dijo que esto podría ser “el primer paso hacia la nacionalización parcial de la industria de IA”.

Incluso Ilya Sutskever, cofundador de OpenAI y ahora líder de Safe Superintelligence, comentó: “Es extremadamente bueno que Anthropic no haya cedido. […] En el futuro, habrá situaciones mucho más desafiantes de esta naturaleza.”

Estamos viendo en tiempo real cómo se negocian las reglas de la IA militar. Y el resultado afectará no solo a Estados Unidos, sino a todo el mundo.


¿Qué opinas? ¿Debería Anthropic ceder ante las demandas del gobierno, o tiene razón en mantener sus “líneas rojas”?

Fuentes: The Verge, Wall Street Journal, Washington Post

Avatar de Jorge Razo

Jorge Razo

⚡️ Entrenador de emprendedores digitales | 🤯 Growth Hacker | 🎙️ Podcast “Capos Digitales” | 🌎 Viajo por el mundo | Emprendimientos en IG: @ekoos_mx @pasedirectomx @cursocie @la_conciertera

Ver todo
0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x