En un giro sin precedentes, el gobierno estadounidense ahora decide qué chatbot pueden usar sus empleados basándose en política, no en tecnología.
Un memo interno del Senado de Estados Unidos acaba de autorizar a los asistentes legislativos a usar:
- ✅ ChatGPT (OpenAI)
- ✅ Gemini (Google)
- ✅ Copilot (Microsoft)
- ❌ Claude (Anthropic) — PROHIBIDO
¿Por qué Claude está vetado?
No es por rendimiento. No es por seguridad técnica. Es por política.
El presidente Trump publicó en Truth Social llamando a Anthropic “left-wing nut jobs” (izquierdistas locos). El Secretario de Defensa Pete Hegseth los etiquetó como “traidores”.
El crimen de Anthropic: negarse a permitir que Claude se use para vigilancia masiva y armas autónomas.
Lo que dice el memo del Senado
Según el New York Times, los asistentes pueden usar IA para:
- Redactar y editar documentos
- Resumir información
- Preparar talking points y briefings
- Investigación y análisis
Pero Claude, uno de los chatbots más capaces del mundo, está explícitamente excluido.
La ironía técnica
Según benchmarks independientes, Claude supera a ChatGPT en varias métricas de razonamiento y seguridad. Pero ahora el gobierno de EE.UU. elige sus herramientas basándose en quién dice “sí señor” más rápido.
| Chatbot | Status en gobierno EE.UU. |
|---|---|
| ChatGPT (OpenAI) | ✅ Aprobado — firmó contrato con Pentágono |
| Gemini (Google) | ✅ Aprobado |
| Copilot (Microsoft) | ✅ Aprobado |
| Claude (Anthropic) | ❌ Prohibido — “riesgo de seguridad” |
El precedente peligroso
Sam Altman de OpenAI lo dijo mejor: el Pentágono sentó un “precedente aterrador” al castigar a una empresa por tener principios éticos.
Si el gobierno puede prohibir tecnología porque una empresa dijo “no” a ciertos usos, ¿qué incentivo tienen las demás para resistir?
Qué significa para México
Este caso debería preocuparnos:
- ¿El gobierno mexicano adoptará las mismas exclusiones?
- ¿Las empresas que usan Claude enfrentarán problemas con contratos gubernamentales?
- ¿La IA se convertirá en otra arena de división política?
En 2026, elegir tu chatbot es un acto político. Bienvenido al futuro.

