La tecnología clave para la guerra del siglo XXI
La inteligencia artificial permite atacar a gran cantidad objetivos a velocidad de máquina en lugar de a velocidad humana
Abundan las interpretaciones de cómo se ganó la Segunda Guerra Mundial.
Hay una, a la que nos abonamos algunos materialistas tecnológicos, por la que el factor clave fue el acero estadounidense. O, casi mejor dicho, el ecosistema industrial norteamericano con sus cadenas de suministro, herramientas, capital y talento. Luego llegaría la bomba atómica, claro.
En su estupendo “La guerra de los chips” (Amazon, Todos tus libros), Chris Miller traza una línea clara: cada gran salto militar de los últimos ochenta años no nace solo de una nueva arma, sino de una nueva forma de convertir capacidad industrial y capacidad de cómputo en poder armamentístico. Del fracaso de Vietnam nacería la apuesta por la munición de precisión, el desarrollo de un conjunto de tecnologías que va desde chips en misiles hasta satélites que proporcionan coordenadas a cualquier punto del planeta.
La Guerra del Golfo de 1991 sería el escenario en el que los Estados Unidos volverían a demostrar su primacía en la guerra. Convenientemente retransmitida por la CNN, lo que Baudrillard describiría como una “una guerra de simulación”, tuvo también un enorme poder propagandístico.
Fue especialmente desmoralizador para la URSS: Moscú esperaba una guerra larga y se topó con la rendición rápida de un ejército iraquí equipado con material de primera línea soviético. Estaban luchando dos ejércitos de generaciones diferentes. El de los chips miniaturizados que habilitaban sensores, cómputo, comunicación y guiado de precisión frente a otro diseñado desde la lógica de masa y el volumen.
Llevo días devorando cada texto que se me cruza sobre el papel de la inteligencia artificial en las últimas operaciones. Una pieza muy completa es ésta del WaPo sobre cómo el ejército estadounidense está utilizando un sistema de Palantir con Claude en el ataque a Irán. Integrado en el sistema "Maven Smart", la inteligencia artificial de Anthropic sugiere objetivos (en este caso, cientos de ellos), da coordenadas precisas, prioriza blancos y evalúa los resultados de los ataques.
La clave de la mejora de competitividad armamentística sería doble. Palantir integra y procesa grandes volúmenes de datos clasificados (satélites, vigilancia, inteligencia) y con Claude genera objetivos en tiempo real. Junto a priorizar y evaluar de inmediato los resultados de los misilazos, permite pasar de planificación de semanas a operaciones casi en tiempo real. Citan a Paul Scharre, vicepresidente ejecutivo del Center for a New American Security, y autor de varios trabajos sobre inteligencia artificial aplicada a la guerra. “El cambio de paradigma clave es que la IA permite al ejército de Estados Unidos desarrollar paquetes de objetivos a velocidad de máquina en lugar de a velocidad humana”.
La invasión de Ucrania merece un puesto como laboratorio de la guerra del siglo XXI. Ya en su comienzo se destacó como una “guerra de drones”, en la que el uso de máquinas más baratas que los misiles permitiría resistir al más débil. Los drones requieren un piloto humano, así que el soldado podía no estar en primera línea de batalla, pero permanecía cerca, observando y decidiendo.
En el último año esta confrontación con drones en Ucrania sufrió una “transformación escalofriante” escribía el NYT: algunos de los nuevos drones ucranianos, una vez fijados en un objetivo, pueden usar IA para perseguirlo y atacarlo, sin necesidad de intervención humana. Según Eric Schmidt, ex CEO de Google y ahora en la industria armamentística de IA, con varias capas de drones “sería esencialmente imposible invadir un país por tierra”. Es lo que Ganesh apunta, las guerras terrestres son cada vez menos eficaces.
Un patrón análogo aparece, con otra escala y otras consecuencias políticas, en las informaciones sobre selección algorítmica de objetivos en Gaza. +972 y The Guardian defendieron tener fuentes internas del ejército de Israel para describir el sistema Lavender, que no se limitaría a hacer sugerencias a los soldados: construye listas de objetivos, puntúa sospechas y se integra en un flujo de trabajo donde la supervisión humana puede reducirse a una validación casi ritual, confiando en que “acierta la mayoría de las veces” aunque se asuma un margen de fallos significativo. Es justo el patrón de adopción de la inteligencia artificial agéntica que estamos observando en trabajos civiles.
¿Qué es un “arma autónoma”? Celia Ford explica que no hay una universalmente consensuada. Se habla de sistemas automatizados, semiautónomos y autónomos. El caso del dron Bumblebee ayuda a entender la evolución: Los drones convencionales dependen del enlace por radio entre piloto y aparato; si los inhibidores rusos cortan esa comunicación, el dron pierde control y cae o falla el blanco. Bumblebee, en cambio, se usa con una lógica híbrida: una persona lo lleva hasta la zona del objetivo, identifica el edificio o posición enemiga con ayuda de sus cámaras y, cuando el blanco queda fijado, activa un modo en el que el dron deja de depender del piloto.
Hay una reacción a todo esto, por supuesto. El secretario general de la ONU, António Guterres, ha instado a todos los estados a prohibir las armas autónomas, calificándolas de “políticamente inaceptables” y “moralmente repugnantes”. Ya en 2015 entrevisté a la activista Jody Williams, ganadora del Nobel de la Paz en 1997 por su trabajo por la prohibición de las minas antipersona, sobre su nueva causa: “Nada más horrible que armas que no necesiten intervención humana para tomar decisiones a vida o muerte”. Sumaría las objeciones, muy matizadas, de Anthropic y su pulso al poder político que analizamos estos días.
Soy pesimista respecto a esos deseos de frenar la escalada. Hace unos meses en un evento al que asistí, responsables de un proyecto sobre los cazas del futuro para el ejército español fueron preguntados, ‘¿Tendrá piloto humano ese caza dentro de 15 años?’. Ellos dijeron que su plan era que sí. La repregunta fue: ‘¿Y si ese caza fuera chino, también lo tendría?’ Se miraron y fueron claros, “‘No, el caza chino de dentro de 15 años no tendrá piloto humano’. El debate, en todo caso, está en las instituciones pero sin estándares internacionales claros y aplicables, los Estados siguen desarrollando sistemas de armas letales autónomas.
China lleva muchos años en la carrera por conseguir sus propias armas autónomas y ha conseguido grandes avances. Aun así, este artículo en el South China Morning Post apunta a que el discurso tan extendido en China sobre la “decadencia” de Estados Unidos, ha recibido un baño de realidad: acciones como el asesinato de Ali Khamenei en Irán y la captura de Nicolás Maduro en Venezuela demuestran que sigue teniendo una capacidad militar y económica muy superior y subestimada por muchos analistas chinos. Salvando las distancias, se parece a cuando en Moscú vieron Irak conquistado en unos días en una guerra que parecía de videojuegos.
Estos años, en los debates sobre “parar la inteligencia artificial” o su regulación para tener puntos de control, límites y auditorías, me he mantenido escéptico. Aunque haya actores internacionales que apuesten por ello (el más claro, la Unión Europea), los incentivos para liderar son análogos a los de los chips y la electrónica hace 50 años.
La IA es la tecnología clave en la economía y en la guerra del siglo XXI. Aunque las armas autónomas nos perturben, generen incentivos perversos hacia cada vez menos control humano e intuitivamente nos muevan al rechazo moral, no veo ahora mismo un escenario de desescalada.





Ni yo. Idea a vuelapluma: al igual que cuando decíamos que, en internet, la misma tecnología que servía para desinformar y generar bulos servía para contrarrestarlos y que, por tanto, el problema era asimilar el paradigma, ¿el arma autónoma se contrarresta con arma autónoma?. ¿Cabe la posibilidad del empate a cero? O, al final, como se ven muchas cosas en la guerra de Ucrania, la cuestión estaría en si es la carrera industrial (lo que entre de lleno en tu post) para mantener el ritmo de producción la que sea capaz de deshacer el empate. Ahora mismo Moscú lo hace a base de enviar a la muerte a decenas de miles de soldados cada mes. Es decir, mientras puedan seguir reponiendo carne de cañón, la guerra se mantiene a la espera de que el lado ucraniano se quede sin reposición de soldados aunque tenga ventaja en el uso de drones y aniquile todos los avances haciendo que, a base de saturación, cada mes se ganen unos kilómetros. Al mismo tiempo, parece que la ausencia de conectividad por el lado ruso está desequilibrando algunas zonas del frente, aunque todo es muy confuso.