INTELIGENCIA ARTIFICIAL

Publicado 03/03/2026

Crisis en la Inteligencia Artificial estratégica: Estados Unidos desplaza a Anthropic y refuerza su alianza con OpenAI

El gobierno de Estados Unidos comenzó a retirar tecnología de Anthropic en varias agencias federales tras un conflicto sobre el uso militar de la Inteligencia Artificial. La decisión reconfigura el mapa de poder entre las grandes empresas de IA y el complejo tecnológico-militar norteamericano.
Compartir
Compartir por Facebook Compartir por WhatsApp Compartir por X Compartir por Telegram

El gobierno de Estados Unidos comenzó a retirar tecnología de Anthropic en varias agencias federales tras un conflicto sobre el uso militar de la Inteligencia Artificial. La decisión reconfigura el mapa de poder entre las grandes empresas de IA y el complejo tecnológico-militar norteamericano.

La carrera global por el dominio de la Inteligencia Artificial atraviesa un momento de fuerte tensión política y estratégica. En las últimas semanas, el gobierno de Estados Unidos comenzó a reemplazar tecnología desarrollada por Anthropic en distintas agencias federales, incluyendo herramientas utilizadas en organismos diplomáticos y administrativos.

La medida marca un giro relevante dentro del ecosistema tecnológico estadounidense, ya que Anthropic era considerada hasta hace poco una de las empresas más cercanas a los debates de seguridad y gobernanza de la IA impulsados por Washington.

Según reportes recientes de medios internacionales como Reuters y Bloomberg, distintas agencias del gobierno comenzaron a migrar sistemas basados en el modelo Claude —desarrollado por Anthropic— hacia soluciones de OpenAI, lo que implica un cambio significativo en la relación entre el Estado estadounidense y las compañías líderes en Inteligencia Artificial.

 

CEO de Anthropic, Dario Amodei

 

El origen del conflicto: el uso militar de la Inteligencia Artificial

El punto central de la disputa está vinculado al uso de modelos avanzados de IA en aplicaciones militares y de seguridad nacional.

Anthropic ha sostenido públicamente que sus modelos deben operar bajo límites estrictos en relación con aplicaciones sensibles, especialmente en áreas como: armas autónomas, sistemas de vigilancia masiva y automatización de decisiones militares sin control humano

De acuerdo con las versiones que circularon en Washington, estas restricciones generaron fricciones con sectores del Departamento de Defensa de Estados Unidos, que busca ampliar el uso de Inteligencia Artificial en operaciones militares, logística y análisis estratégico.

El desacuerdo terminó provocando la cancelación de proyectos y la reducción del uso de tecnología de Anthropic dentro del aparato estatal.

 

 

Sam Altman, CEO de OpenAI

 

OpenAI gana terreno en el ecosistema gubernamental

En paralelo a la salida de Anthropic de algunos programas federales, OpenAI comenzó a consolidar su relación con organismos del gobierno estadounidense, especialmente en proyectos vinculados con defensa, seguridad nacional y análisis de datos.

Esto refuerza una tendencia que se viene observando desde 2024: la integración cada vez más estrecha entre las empresas líderes en Inteligencia Artificial y las estructuras estratégicas del Estado norteamericano.

La competencia entre compañías como OpenAI, Anthropic, Google y Microsoft ya no se limita al mercado tecnológico. También se juega en quién se convierte en el proveedor principal de infraestructura y modelos de IA para gobiernos y organismos militares.

 

 

La Inteligencia Artificial como infraestructura geopolítica

El conflicto refleja una transformación más profunda. La Inteligencia Artificial dejó de ser únicamente una herramienta tecnológica para convertirse en infraestructura estratégica comparable a la energía, las telecomunicaciones o los sistemas satelitales.

Estados Unidos, China y la Unión Europea están intentando consolidar ecosistemas tecnológicos propios capaces de sostener su soberanía digital y militar.

En ese contexto, las decisiones sobre qué empresa provee los modelos de IA al Estado tienen implicancias geopolíticas, económicas y militares.

 

 

 

Debate político dentro de Estados Unidos

La exclusión parcial de Anthropic del ecosistema federal también abrió un debate político dentro de Estados Unidos. Algunos legisladores señalaron que la decisión podría favorecer a determinadas empresas tecnológicas en detrimento de otras, lo que podría generar discusiones regulatorias en el Congreso.

Al mismo tiempo, sectores de la industria tecnológica respaldaron la postura de Anthropic al considerar que la Inteligencia Artificial debe mantener límites claros frente a usos militares o de vigilancia masiva.

 

 

Un nuevo mapa de poder en la IA global

La disputa entre Anthropic y el gobierno estadounidense muestra que la carrera por la Inteligencia Artificial ya no se define solo por la calidad de los modelos o la capacidad de cómputo.

También se define por quién logra integrarse de manera más profunda con los Estados y sus estructuras estratégicas.

Mientras OpenAI parece consolidar su posición dentro del aparato gubernamental estadounidense, Anthropic intenta sostener un perfil centrado en seguridad, regulación y límites éticos para la IA avanzada.

El resultado de esta tensión podría influir en cómo se utilizará la Inteligencia Artificial en los próximos años, tanto en el ámbito civil como en el militar.