Cuando una empresa de IA planta cara al Pentágono: la encrucijada que obliga a despertar
El choque entre Anthropic y el Departamento de Defensa estadounidense pone en evidencia un vacío de gobernanza que nos afecta a todos

Redacción · Más España


El episodio no es una mera disputa corporativa: es la manifestación de una era en la que herramientas de poder inmenso ya operan en la sombra de decisiones militares.
Según reportes independientes —Wall Street Journal, Axios y la revista Time—, una herramienta llamada Claude estuvo presente durante la operación que culminó el 3 de enero con la captura del entonces presidente de Venezuela, Nicolás Maduro. Ni el Departamento de Defensa ni Anthropic confirmaron oficialmente el uso, pero el rastro informativo existe y habla por sí mismo.
Lo que vino después fue una escalada vertiginosa. Un ejecutivo de Anthropic preguntó a Palantir si su software había sido usado en la operación. Ese acto, según el subsecretario y jefe de tecnología del Pentágono, encendió la alarma: ¿podría la empresa, en un conflicto futuro, apagar su modelo y poner vidas en riesgo? Anthropic sostiene que la pregunta fue de rutina y niega haber intentado limitar usos en un caso concreto.
El choque de interpretaciones condujo a demandas, acusaciones y medidas extraordinarias. El Pentágono exigió acceso irrestricto para "todos los usos legales"; Anthropic se negó. El secretario de Defensa calificó a la compañía como "riesgo en la cadena de suministro" —una etiqueta reservada históricamente para empresas vinculadas a adversarios extranjeros—; Anthropic recurrió a la justicia alegando exceso de autoridad y vulneración de salvaguardas éticas. Expertos legales citados por la fuente consideran que la empresa dispone de opciones sólidas en tribunales.
El presidente Donald Trump dio la orden de que todas las agencias federales dejaran de usar tecnología de Anthropic y pronunció, en un mensaje público, una condena política de tono virulento que vinculó a la empresa con una etiqueta ideológica que él y sus seguidores emplean como descalificación.
Anthropic nació con una premisa explícita: que la IA plantea riesgos existenciales y que quienes la desarrollen deben comprometerse con la seguridad. Su equipo rojo, que examina peores escenarios —desde ciberataques hasta riesgos de bioseguridad—, advierte sobre brechas de gobernanza. Investigadores de la Universidad de Oxford citados en la crónica afirman que este episodio "revela brechas de gobernanza de larga data" en la integración de la IA en operaciones militares, deficiencias que no nacen con esta administración y no desaparecerán con la polémica.
La pregunta central que deja este conflicto es elemental y urgente: ¿quién decide los límites cuando la tecnología más potente que haya existido pasa del laboratorio a la guerra? No son interrogantes retóricos. Son señales de alarma trazadas en hechos: presencia de modelos en operaciones, exigencias de acceso irrestricto por parte del aparato militar, recusaciones éticas de la compañía y la intervención directa del Ejecutivo federal.
De esta secuencia emerge una lección incuestionable: no hay certidumbre de que existan "salas llenas de adultos" que regulen y contengan el uso militar de la IA. El vacío de gobernanza no es una abstracción académica; es un riesgo práctico que ya se manifestó en operaciones reales y que exige respuestas institucionales claras y urgentes.
Que una compañía estadounidense, formada por investigadores que partieron de OpenAI y que se afanan en la seguridad, termine enfrentada al mismo Estado que pretende regularla, debería sacudir a cualquier sociedad que se precie de defender el principio de control democrático sobre instrumentos letales. Si la disputa termina en tribunales, quedará también demostrada la fragilidad de reglas y procedimientos ante decisiones que afectan vidas y soberanías.
No se trata solo de quién gana la pulseada legal o política en Washington. Se trata de quién fija las líneas rojas; de cómo se construyen salvaguardas eficaces; de si aceptamos que una tecnología capaz de alterar irrevocablemente los equilibrios de poder siga operando en zonas grises. La historia reciente documentada por la BBC Mundo obliga a mirar sin complacencias: la gobernanza de la IA no puede seguir siendo una expectativa o una esperanza. Es una urgencia.
También te puede interesar
La Colección Gelman en Madrid: ¿préstamo temporal o trasplante definitivo?
Una de las grandes colecciones del México del siglo XX viaja bajo acuerdo con Fundación Banco Santander; voces culturales y la propia presidenta alertan sobre el riesgo de que el retorno sea solo una promesa.
Política españolaGuante blanco y vacío: el debate que no resolvió el futuro del PSOE extremeño
Un 'cara a cara' de pulcritud extrema que no arrojó diferencias reales entre Soraya Vega y Álvaro Sánchez Cotrina; la decisión queda en manos del censo y del voto militante.
Política españolaEl PP, a la vista de la Presidencia de las Cortes de Castilla y León
La ronda hacia la constitución de las Cortes apunta al PP como futuro presidente parlamentario. Vox renuncia a sillones y blinda que el PSOE no presida el Parlamento.