- Análisis
- Noticias Comerciales
- De ChatGPT al Departamento de Guerra
De ChatGPT al Departamento de Guerra

Esta situación es un ejemplo clásico de ajedrez corporativo.
A principios de 2026, OpenAI estaba en apuros. Gastaba 17 mil millones de dólares más al año de lo que ingresaba. Los usuarios comunes no se registraban en ChatGPT con la suficiente rapidez como para cubrir esos gastos. Y cuando los clientes no pagan, se recurre al único cliente con crédito ilimitado - El Ejército. Este acuerdo representa un rescate financiero masivo que permite a OpenAI dejar de preocuparse por obtener ganancias de los usuarios comunes.
OpenAI y Anthropic le dijeron lo mismo al Pentágono:
"No puedes usar nuestra IA para espionaje masivo ni para robots asesinos."
- Anthropic intentó plasmar esas reglas en un contrato legal. La administración Trump lo consideró un intento de una empresa privada de imponerse al presidente y a las fuerzas armadas. Lo tomaron como un insulto.
- OpenAI en lugar de un contrato legal, dijo: "Incorporaremos las reglas directamente en el código informático.
El Pentágono sintió que había ganado porque el contrato se mantuvo flexible, mientras que OpenAI conservó el control porque sus propios ingenieros son quienes ejecutan físicamente el software en la red militar.
Altman pidió públicamente al gobierno que obligara a todas las empresas de IA a seguir estas mismas normas de seguridad. Si bien esto suena responsable, en realidad es una brillante trampa comercial llamada Captura Regulatoria.
Si el gobierno convierte en ley las normas técnicas específicas de OpenAI, entonces todas las demás startups tendrán que desarrollar su IA exactamente igual que OpenAI para ser legales. Esto hace prácticamente imposible que un competidor nuevo y más pequeño pueda entrar en el mercado. En cierto modo, OpenAI le está pidiendo al gobierno que levante un muro alrededor de su negocio.
Las Principales Señales de Alerta
1. Anthropic etiquetada como "Riesgo para la Seguridad Nacional".
El gobierno calificó a Anthropic como un "Riesgo para la Seguridad Nacional" - usar eso contra una empresa estadounidense solo por una disputa contractual es una gran señal de advertencia. Es como decir a todas las demás empresas tecnológicas: “Estén de acuerdo con nosotros o destruiremos su negocio."
2. OpenAI está enviando a sus propios empleados a trabajar dentro del Pentágono
OpenAI iestá enviando a sus propios empleados a trabajar dentro de las redes secretas del Pentágono. Por lo tanto, la línea entre OpenAI y el gobierno está desapareciendo. Estos empleados tendrán acceso a secretos que ni siquiera algunos funcionarios electos ven. Esto hace que OpenAI sea demasiado grande para quebrar.
3. Amazon acaba de invertir 50 mil millones de dólares en OpenAI
Amazon acaba de invertir 50 mil millones de dólares en OpenAI. AAmazon también opera los servidores en la nube (AWS) que utiliza el Pentágono. Ahora tienes un circuito cerrado - Amazon proporciona el hardware, OpenAIproporciona el software y el Pentágono es el cliente. No hay espacio para que expertos externos verifiquen si la IA está cometiendo errores, y no hay competencia que mantenga los precios justos.
En Resumen
La diferencia real entre OpenAI y Anthropic es que esta última intentó poner esas reglas en un contrato legal y fue apartada, mientras que OpenAI actuó como un socio colaborador y consiguió un puesto en la mesa valorado en miles de millones de dólares.
Al final, el gobierno consiguió la IA que quería y OpenAI obtuvo el dinero que necesitaba, pero la seguridad ahora está siendo gestionada por el propio código de la empresa en lugar de por la ley o la supervisión pública.







