-?
En el amanecer de 2026, la arquitectura del poder global ha dejado de residir exclusivamente en el acero de los portaaviones o en el control de las reservas de divisas. El enfrentamiento entre Anthropic y el Departamento de Guerra de los Estados Unidos —recientemente renombrado bajo el mandato de la administración Trump para reflejar una postura de agresión estratégica— constituye el primer gran cisma de una era donde la ética corporativa y la razón de Estado han entrado en una trayectoria de colisión. Lo que comenzó como una disputa sobre un contrato de 200 millones de dólares para el acceso a modelos de lenguaje en redes clasificadas, se ha transformado en un tratado sobre la reconfiguración de la soberanía estatal en el siglo XXI.
Como sostiene la politóloga franco-tunecina Asma Mhalla, la tecnología ha dejado de ser una herramienta a disposición de la sociedad para convertirse en el tejido mismo de la soberanía sobre la cual se despliega el “Big State”, es decir estados que derivan su potencia de su ecosistema tecnológico. En este nuevo ecosistema, mientras el Estado ya no sólo busca regular la innovación, sino que intenta disciplinar el código para asegurar que la fuerza letal y la vigilancia masiva respondan a sus intereses sin fricciones morales; una corporación privada, con una valoración de 380.000 millones de dólares y una filosofía de "seguridad primero", defiende el derecho de imponer límites a la maquinaria bélica de la mayor superpotencia del planeta.
Esta pulseada por el control de recursos de poder marca el fin definitivo de la "luna de miel" entre Silicon Valley y Washington. Mientras que el complejo militar-industrial del siglo XX integraba la aviación y la energía nuclear bajo el mando centralizado del Estado, la inteligencia artificial de frontera —representada por los modelos de la serie Claude— posee un criterio de autonomía que el Departamento de Guerra considera inaceptable. El conflicto revela una tensión fundamental: el Estado exige la capitulación del algoritmo ante el imperativo nacional, mientras que empresas como Anthropic intentan condicionar al poder político.
Anatomía de una ruptura
La metamorfosis de Anthropic, que pasó de actuar como el socio preferente para tareas de inteligencia clasificada a ser declarada un "riesgo para la cadena de suministro", ilustra la ferocidad con la que el Estado reacciona ante la desobediencia tecnológica. Históricamente, esta etiqueta se reservaba para entidades extranjeras catalogadas como hostiles, tal como fueron los casos de Huawei o Kaspersky. Su aplicación a una empresa estadounidense es un hito que redefine la lealtad corporativa como un requisito previo para la supervivencia operativa.
La ruptura no fue súbita, sino el resultado de meses de fricción en las sombras de las redes de seguridad nacional. El despliegue de Claude en entornos clasificados, facilitado por socios como Palantir y Amazon Bedrock, permitió al Pentágono comprobar la superioridad analítica de los modelos de Anthropic. Sin embargo, la compañía supuso que el precio de esa superioridad era la adhesión a las políticas de uso responsable de la empresa.
Buscando una aceleración total en el desarrollo de capacidades de ataque, el Pentágono exigió una cláusula de acceso incondicional. La premisa era simple y brutal: el Departamento de Guerra debe poder utilizar la IA para cualquier fin que sea legalmente permitido bajo el marco actual, eliminando cualquier salvaguarda impuesta por el desarrollador.
Las “líneas rojas” de Anthropic, bajo la dirección de Dario Amodei, sostuvieron dos puntos innegociables:
* Vigilancia doméstica masiva: La negativa a permitir que Claude procesara bases de datos públicas y comerciales para trazar perfiles detallados de ciudadanos estadounidenses sin orden judicial. Amodei sostiene que, aunque la ley aún no ha regulado esta capacidad, la IA puede "supercargar" la vigilancia legal hasta convertirla en una herramienta de control autoritario.
* Armas totalmente autónomas: La prohibición de integrar la IA en sistemas donde el algoritmo, y no un humano, tome la decisión final de ejecutar fuerza letal.
El memorando Amodei y la represalia de Trump
En un memorando interno filtrado, Amodei acusó abiertamente al gobierno estadounidense de represalias políticas, señalando la falta de donaciones de Anthropic a la campaña de Trump —en contraste con los 25 millones de dólares donados por Greg Brockman de OpenAI a MAGA Inc.— como el verdadero motor del conflicto.
La respuesta estatal fue el ultimátum del 27 de febrero de 2026. Al expirar el plazo a las 17:01, el secretario de Guerra, Pete Hegseth, activó la designación de “riesgo para la cadena de suministro”. Esta medida no solo canceló los contratos directos, sino que amenazó con que Anthropic podría estar sujeta a la Ley de Producción de Defensa, que permite al gobierno obtener el control de empresas y sus productos, en nombre de la seguridad nacional.
Para comprender la belicosidad del Pentágono, es necesario analizar su desempeño en misiones de alta complejidad donde la precisión algorítmica fue el factor decisivo entre el éxito y el desastre geopolítico.
A pesar de las restricciones éticas, la IA de Anthropic se convirtió en el "cerebro" analítico de las operaciones más audaces de la administración Trump:
* Caso Venezuela (Enero 2026): Durante la captura de Nicolás Maduro en Caracas, Claude fue utilizado para filtrar volúmenes masivos de inteligencia interceptada en tiempo real. Su capacidad para simular escenarios de extracción y evaluar riesgos de daños colaterales permitió ejecutar la misión con una precisión quirúrgica que los analistas humanos no habrían podido igualar en la ventana de tiempo operativa.
* Caso Irán (Febrero 2026): En el inicio del conflicto armado tras el asesinato del Líder Supremo y el posterior ascenso de Mojtaba Khamenei, Claude integró flujos de datos de señales electrónicas y de comunicaciones (SIGINT) para priorizar objetivos militares y neutralizar infraestructuras críticas. Los informes sugieren que el modelo fue capaz de identificar patrones de movimiento de la cúpula militar iraní antes de los ataques masivos.
"No podemos permitir que nuestros combatientes tengan que pedir permiso a Dario Amodei para derribar un enjambre de drones enemigos que intentan matarlos", aseguró el subsecretario de Guerra, estratega tecnológico y ex ejecutivo de Uber, Emil Michael. China, por su parte, alegó que el uso desenfrenado de la inteligencia artificial en el ámbito militar representa una amenaza global. Según el portavozdel Ministerio de Defensa, Jiang Bin, delegar decisiones de vida o muerte a algoritmos y vulnerar la soberanía nacional mediante esta tecnología no solo destruye la ética bélica, sino que podría conducir a una pérdida de control tecnológico irreversible. No obstante, el país asiático no es ajeno a esa carrera.
Esta tensión define la "paradoja de la autonomía": mientras la IA promete salvar vidas, disminuyendo las bajas propias en combate mediante la eficiencia tecnológica, las salvaguardas que garantizan su uso ético son percibidas por los mandos militares como una interferencia en la carrera por la supremacía global.
La sombra de Palantir y el oportunismo de OpenAI
En esta reconfiguración del poder, Palantir Technologies actúa como el entorno operativo donde la IA se convierte en arma. Bajo la dirección de Alex Karp y la influencia de Peter Thiel, Palantir ha trascendido su rol de contratista para convertirse en el tejido conectivo del nuevo complejo militar-industrial-tecnológico.
El vehículo de esta transformación es el Maven Smart System (MSS). Este sistema no es solo un software; es una arquitectura de datos que permite que modelos como Claude se desplieguen a escala global en todas las ramas de las Fuerzas Armadas. Cuando Anthropic intentó imponer límites a través de la interfaz de Palantir, la empresa de Karp respondió con un alineamiento total hacia el Pentágono, facilitando el reemplazo de Claude por modelos "más cooperativos".
La salida forzada de Anthropic del ecosistema del Pentágono creó un vacío que Sam Altman y OpenAI no tardaron en ocupar. Esta maniobra ha sido analizada como un movimiento de realpolitik empresarial: priorizar el dominio del mercado de defensa y el favor de la administración Trump sobre las cautelas éticas que una vez definieron a la empresa.
A diferencia de Anthropic, OpenAI aceptó los términos del Departamento de Guerra bajo un marco que, aunque nominalmente defiende líneas rojas, ofrece lagunas legales críticas:
* OpenAI proscribe el uso "intencional" de sus modelos para vigilancia masiva. Expertos legales advierten que este lenguaje permite que la vigilancia masiva ocurra de forma "accidental" o como subproducto legal de otras operaciones de inteligencia, otorgando al Estado una oportunidad de ambigüedad plausible.
* Mientras Anthropic argumenta que la tecnología ha superado a la ley actual, OpenAI se limita a cumplir con los estándares legales existentes, los cuales no contemplan las capacidades de supervigilancia que la IA generativa habilita al cruzar bases de datos comerciales aparentemente inocuas.
El éxodo civil
La respuesta social a esta confrontación ética ha sido el movimiento #QuitGPT. En marzo de 2026, más de 1.5 millones de usuarios cancelaron sus suscripciones a ChatGPT en un acto de protesta digital sin precedentes, migrando masivamente hacia Claude. Este éxodo llevó a Anthropic al número uno de la App Store, demostrando que la integridad ética puede convertirse en un activo comercial poderoso. Sin embargo, para el Estado norteamericano, este apoyo popular a Anthropic sólo confirma su sospecha de que la empresa es un bastión de resistencia ideológica.
Pero, en definitiva, nos encontramos ante una "danza mortal" de dependencia mutua. El Estado intenta disciplinar a las Big Tech mediante herramientas de coacción como la Ley de Producción de Defensa, mientras que las empresas han colonizado funciones críticas del Estado que este ya no puede ejecutar por sí solo.
El gran interrogante geopolítico
El uso de la etiqueta de "riesgo de cadena de suministro" contra Anthropic es un arma de disciplina soberana. Con esta decisión, el Pentágono está enviando un mensaje al resto del sector: la innovación no otorga inmunidad frente a la razón de Estado. Esta es la aplicación de la lógica de la destrucción mutua asegurada al silicio. Si Anthropic no cede, el Estado está dispuesto a sabotear la capacidad de la empresa de entrenar modelos de próxima generación.
Bajo esta presión, Anthropic ha mostrado signos de fractura interna. En febrero de 2026, la empresa suavizó su Política de Escalamiento Responsable (Responsible Scaling Policy), eliminando el "freno automático" que detenía el entrenamiento de modelos peligrosos. Esta concesión pragmática responde a una lógica de realismo tecnológico: si Anthropic se detiene por escrúpulos, OpenAI o actores chinos tomarán la delantera, resultando en un mundo dominado por IAs aún menos responsables. La decisión es explicada como una capitulación táctica para preservar la relevancia estratégica.
¿El último campo de batalla?
El cisma entre Anthropic y el Pentágono representa la advertencia definitiva sobre el futuro de las democracias liberales. En un mundo donde la toma de decisiones críticas —desde la selección de objetivos en Irán hasta la gestión de la seguridad fronteriza— depende de algoritmos empresarios, la distinción entre el poder público y la voluntad corporativa se ha vuelto porosa.
Retomando la tesis de Asma Mhalla, la distopía de la ciencia ficción de los años 80 ha dejado de ser una perspectiva futura para convertirse en nuestra realidad presente. Este sistema se caracteriza por una alianza entre el Big State (Estados-potencia como EE. UU. y China) y las Big Tech (megacorporaciones que poseen infraestructuras civilizatorias), configurando un Leviatánde dos cabezas que opera por sobre los marcos democráticos tradicionales.
Lo que está en juego en este conflicto no es sólo la supervivencia de una empresa o la vigencia de un contrato de defensa. Es la definición misma del poder en el siglo XXI: en una realidad simulada, decidida y ejecutada por algoritmos, quien dicta las reglas de la inteligencia artificial, dicta las reglas de la realidad misma.
Va con firma | 2016 | Todos los derechos reservados
Director: Héctor Mauriño |
Neuquén, Argentina |Propiedad Intelectual: En trámite