Lo que necesitas saber:
Anthropic rechazó ceder el uso de su tecnología al Departamento de Guerra. Después, OpenIA llegó a un acuerdo con el gobierno de Trump.
En el terreno de la tecnología también se está dando una batalla importante por el uso de la inteligencia artificial aplicado a misiones militares. ¿Los protagonistas? Dos desarrolladoras de la IA (Anthropic y OpenAI) y el gobierno de Donald Trump.
Y es que seguro muchos vieron las noticias de que Anthropic rechazó ceder el uso de su tecnología al Departamento de Guerra y que, poco después, OpenAI —el desarrollador de ChatGPT— llegó a un acuerdo con el mismísimo gobierno de Trump. ¿Qué pasó?
La batalla por la Inteligencia Artificial: Anthropic, OpenAI y Trump
1. ¿Qué pasó?
Anthropic es una de las empresas pioneras en el desarrollo de la inteligencia artificial.
Su relevancia es tal que logró un contrato de 200 millones de dólares con el ejército de Estados Unidos en 2025 para darle chance de acceder a sus modelos de inteligencia artificial.
Todo, todo incluyendo a su asistente Claude. Aunque, las cosas dieron un giro no tan inesperado para Anthropic y sí para el gobierno de Donald Trump con las restricciones que esta empresa había puesto para el uso de sus modelos de inteligencia artificial.
2. ¿Cuáles eran esas restricciones?
Que el gobierno de Estados Unidos no utilizara los modelos de IA para monitorear a la gente —o sea, a la ciudadanía— ni tampoco para fabricar armas autónomas. Lo suficientemente autónomas para no necesitar de la supervisión humana.
Y, la verdad, es que se trató de una postura inusual, pues es bien sabido que las empresas dedicadas al desarrollo de la tecnología ponen todos sus avances al servicio de los gobiernos de Estados Unidos.
Sin embargo, no fue el caso de la empresa de Dario Amodei, director ejecutivo de Anthropic. Y eso llevó a esta compañía y al gobierno de Trump a una serie de charlas hasta llegar a finales de febrero de 2026 cuando, de plano, no cuajó ningún tipo de trato.
Por lo tanto, Trump ordenó a todas las agencias federales de su gobierno que dejaran de usar la tecnología de Anthropic, iniciando un veto comercial contra esta empresa.
3. OpenIA
Corte a… poco después de esta noticia, el consejero delegado de OpenAI Sam Altman publicó un tuitazo para anunciar que esta empresa había llegado a un acuerdo con el Pentágono para que utilice toda su tecnología —y modelos de IA— para la gestión de archivos clasificados.
Este anuncio chance tomó por sorpresa a varios, ya que Altman había declarado que respaldaba a Anthropic en su decisión por restringir sus modelos a determinados usos del Departamento de Guerra o de Defensa de Estados Unidos.
4. ¿Cuál fue el trato entre OpenAI y el gobierno de Trump?
Según Altman, el Departamento de Guerra —casualmente— coincidió con OpenIA en la importancia de que el uso de los modelos se debe llevar a cabo en el marco legal estadunidense. Aquí parte de su mensaje:
“Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia masiva nacional y la responsabilidad humana por el uso de la fuerza, incluyendo los sistemas de armas autónomas. El Departamento de Guerra coincide con estos principios, los refleja en la legislación y las políticas, y los incorporamos en nuestro acuerdo”.
Supuestamente, hay garantías para que el gobierno respete las normas de seguridad sobre el uso de la IA de OpenAI.
Y, bueno, en su mensaje Altman pidó al Departamento de Defensa (Defensa o Guerra son la misma institución sólo que con un nombre más rimbombante en el segundo caso) que aplicara estas condiciones con el resto de las empresas desarrolladoras de IA… como Anthropic.
5. Anthropic
Anthropic PBC es una compañía estadunidense desarrolladora de inteligencia artificial que opera desde San Francisco. O, bueno, allá tiene su sede.
Uno de los desarrollos o herramientas más conocidas es Claude, un asistente de inteligencia artificial que se ha destacado por el análisis de datos y redacción de muy alta calidad.
La empresa fue fundada en 2021 por exingenieros y extrabajadores de OpenAI —entre ellos Daniela Amodei y Dario Amodei— que tenían como objetivo diseñar una IA más segura y con candados o límites éticos.
Anthropic se aventó una bronca con el gobierno de Trump —si bien ya había ganado un contrato millonario— después de que el Pentágono le exigiera firmar un nuevo contrato legal para ceder su herramienta Claude y todos sus usos, sin limitaciones.
El resultado ya lo vieron. La empresa se negó porque, dijo, Claude no podía ser utilizado con fines de vigilancia masiva a ciudadanos —que, por cierto, esta prohibido por la ley estadunidense— ni tampoco para sistemas de armas autónomos sin supervisión humana.
Esta batalla nos está enseñando que el uso y aplicación de la IA también tiene alcances militares como los buscados por Estados Unidos.
