WIRED acaba de publicar la investigación más detallada hasta la fecha sobre cómo el software militar de Palantir integra a Claude para operaciones de combate.
Maven: El Sistema que Selecciona Objetivos
Desde 2017, Palantir es el contratista principal detrás de Project Maven, la iniciativa del Pentágono para desplegar IA en escenarios de guerra.
El sistema puede:
- Aplicar algoritmos de visión por computadora a imágenes satelitales
- Detectar automáticamente objetivos como “sistemas enemigos”
- Nominar blancos para bombardeo terrestre o aéreo
- Recomendar qué bombarderos y municiones asignar a cada objetivo
Claude en el Campo de Batalla
Según fuentes de WIRED, oficiales militares usan Claude para analizar grandes volúmenes de inteligencia. El chatbot de Anthropic está integrado en el software que Palantir vende a agencias de defensa e inteligencia.
En enero, Claude supuestamente jugó un rol instrumental en la operación que llevó a la captura del presidente venezolano Nicolás Maduro.
La Pelea con el Pentágono
Anthropic se negó a dar acceso incondicional al gobierno, insistiendo que sus sistemas no deben usarse para vigilancia masiva de estadounidenses ni armas autónomas.
El Pentágono respondió etiquetando los productos de Anthropic como “riesgo de cadena de suministro”.
Los Rivales se Unen
En un giro inesperado, Microsoft, Google DeepMind y OpenAI presentaron un amicus brief apoyando a Anthropic en su demanda contra el Pentágono.
Competidores directos, unidos por un enemigo común: el uso militar sin restricciones de sus tecnologías.
Lo Que Significa
Ya no es ciencia ficción. Los chatbots de IA están generando planes de guerra reales, analizando inteligencia satelital, y recomendando ataques.
La pregunta no es si la IA dominará la guerra moderna — ya lo hace.
La pregunta es: ¿quién controla a la IA?

