Con un contrato de 200 millones de dólares y el respaldo de la infraestructura de AWS, OpenAI se convierte en el proveedor estratégico de IA para el Departamento de Defensa. El veto fulminante a Anthropic marca un antes y un después en la relación entre Silicon Valley y el poder militar.
La frontera entre la innovación civil y la doctrina militar se ha difuminado definitivamente este 17 de marzo de 2026. El Pentágono ha sellado una alianza con OpenAI para integrar sus modelos de lenguaje en entornos de máxima seguridad. El acuerdo no solo representa una inyección financiera, sino la validación de OpenAI como el «brazo tecnológico» de confianza de Washington, desplazando a competidores que impusieron excesivas restricciones éticas.
1. El Veto a Anthropic: De aliado a «riesgo de suministro»
El movimiento más sísmico de este contrato no ha sido la cifra, sino la caída en desgracia de Anthropic. La compañía, conocida por su enfoque en la «IA constitucional», ha sido vetada tras negarse a ceder ante la exigencia del Pentágono de usar sus modelos «para todos los fines lícitos».
- La etiqueta de riesgo: El Departamento de Defensa ha catalogado a Anthropic como «supply chain risk» (riesgo para la cadena de suministro), una medida agresiva que obliga a otros contratistas a cortar lazos con la firma.
- El choque de valores: Mientras Anthropic exigía prohibiciones explícitas contra el uso en armas autónomas, el Pentágono impuso su lógica: en combate, el mando militar no puede tener las manos atadas por el software de un proveedor.
2. OpenAI y sus «Tres Líneas Rojas»
Para calmar a sus empleados y a la opinión pública, Sam Altman ha diseñado un marco de contención técnica y legal, aunque él mismo admitió que la estética del pacto «no se ve bien».
- Los límites: OpenAI prohíbe el uso de su tecnología para vigilancia masiva doméstica, el desarrollo de armas autónomas y decisiones de crédito social.
- Control en la nube: El despliegue será «cloud-only», lo que significa que el Pentágono no tendrá el código en sus propios servidores locales (edge), dificultando que la IA tome decisiones letales de forma autónoma en el campo de batalla sin latencia.
- Supervisión humana: El acuerdo exige personal con acreditación de seguridad (cleared personnel) supervisando cada interacción del modelo en redes clasificadas.
3. AWS: El músculo invisible de 38.000 millones
OpenAI no entra sola en el Pentágono. Lo hace sobre los hombros de Amazon Web Services (AWS), que actúa como el custodio físico de los datos.
- La infraestructura JWCC: El contrato se apoya en el vehículo Joint Warfighting Cloud Capability, donde AWS ya es un actor dominante.
- Alianza estratégica: La reciente unión entre OpenAI y AWS (valorada en hasta 38.000 millones de dólares a siete años) garantiza que el Pentágono tenga la potencia de cálculo necesaria para procesar inteligencia en tiempo real.
¿Para qué usará el Pentágono la IA de OpenAI?
Aunque la frase «fines lícitos» es amplia, el uso inmediato se centra en la eficiencia operativa:
- Análisis de Inteligencia: Sintetizar miles de informes de señales y fuentes abiertas en segundos.
- Soporte a Decisiones: Ayudar a los mandos a priorizar objetivos y evaluar riesgos logísticos.
- Guerra de Información: Automatizar la redacción de informes técnicos y la validación de datos en entornos de combate.
| Proveedor | Estatus | Ventaja |
| OpenAI | Contratista Principal | Flexibilidad y potencia de modelos (GPT-4/5). |
| AWS | Socio de Infraestructura | Seguridad física y cumplimiento militar. |
| Anthropic | Vetado | Ninguna (considerado riesgo estratégico). |





