
¿Está la IA reescribiendo las reglas de la guerra? [*]
| Aprendiendo del antiguo Imperio Romano El ataque de Irán: ¿quizás haya un método en esa locura? ¿Es Trump un genio ‘hamletiano’ que esconde una gran capacidad estratégica tras una fachada de bufonada? ¿O le ayuda algo mucho más inteligente que él? |
En la época de la invasión de Irak, en 2003, surgió una leyenda que afirmaba que George W. Bush se vio influenciado en su decisión por material sobre el «pico del petróleo» de la ASPO (Asociación para el Estudio del Pico del Petróleo). Claro que nadie sabrá jamás qué pasaba por la mente de Bush, pero no considero esta interpretación imposible.
En aquel entonces, la idea del pico del petróleo era un tema de debate común, y con la misma frecuencia se rechazaba con vehemencia. Pero una cosa es lo que se dice y otra es lo que se hace. La mente humana es una mezcolanza de ideas a medio elaborar, y como dijo Daniel Dennett, todos somos monos infestados de memes. Por lo tanto, el meme del «pico del petróleo» pudo haber jugado un papel importante en la decisión de la invasión de Irak, y todos conocemos las consecuencias: enormes costes, la muerte de un gran número de personas y ninguna rentabilidad evidente en términos de controlar los recursos petroleros de Oriente Medio.
Aún peor fue el caso de Afganistán. Veinte años de guerra, al menos dos billones de dólares gastados, además de cientos de miles de bajas. En una publicación anterior (In a previous post), argumenté que la campaña afgana fue resultado de la incompetencia de funcionarios del gobierno estadounidense que malinterpretaron los resultados de un estudio geológico de los recursos petroleros del Caspio. Esto originó otra infección memética en forma de la leyenda de las enormes reservas de petróleo de la «Nueva Arabia Saudita». Una leyenda comparable a la de la tierra del «Preste Juan» [1], en la época de las Cruzadas. Estas legendarias reservas de petróleo solo podían alcanzarse por tierra tomando el control de Afganistán, lo que implicó una operación terrestre enormemente costosa que no condujo a nada, cuando se entendió que esas reservas simplemente no existían. Consideremos también el caso de la Operación Rusa en Ucrania; allí, también, los planificadores militares no parecen haber podido hacer mucho mejor.
La historia de la humanidad está plagada de enormes errores estratégicos que conducen a desastres militares, económicos y sociales. Aurelien describe a los responsables de la toma de decisiones estratégicas con inequívoca precisión:
“La política occidental es esencialmente una gigantesca cámara de resonancia sobre el tema. Todos los que te informan, todos los que asisten a las reuniones a las que asistes, todos los que les informan, todos los que conoces en recepciones y al margen de las reuniones, tienen básicamente las mismas opiniones. Tus colegas de otros gobiernos, el portavoz de la oposición en tu tema, la Comisión Parlamentaria, el secretario general de la OTAN, los periodistas que te entrevistan, la Comisión Europea, los “think tanks” y los influyentes políticos retirados, todos dirán prácticamente lo mismo. Lo que tenemos aquí se acerca bastante a una fantasía colectiva, una alucinación colectiva o un proceso mediante el cual las personas se hipnotizan mutuamente. Es un pensamiento colectivo a una escala épica”.
Personalmente, nunca he participado en la planificación militar estratégica, pero reconozco que las palabras de Aurelien describe [2] (Aurelien describes) a la perfección cómo funcionan los gobiernos en los niveles con los que tengo experiencia directa. Las decisiones gubernamentales se basan principalmente en la incompetencia, sumada al pensamiento colectivo, impulsadas por los grupos de presión. El potencial de errores garrafales es evidente, y hemos visto muchos de ellos en la historia reciente, a todos los niveles.
Sin embargo, algo pudo haber cambiado con la operación contra Irán. No se parecía en nada a las costosas aventuras de Estados Unidos en Irak y Afganistán. Fue una operación breve y despiadada, sin la habitual y masiva campaña de «construcción de consenso» diseñada para demonizar al enemigo. La opinión pública, en gran medida desfavorable a la guerra, fue simplemente ignorada, al igual que el derecho internacional. Los iraníes se limitaron a una pequeña e ineficaz represalia. Para entender cómo pudo razonar el gobierno iraní, pueden leer este artículo de Chuck Pezeshky (frase clave: «Irán es un escenario occidental, y la gente busca la comodidad»). Las guerras son, al fin y al cabo, una forma de comunicación brutal por mucho que se quiera, pero eso es lo que son. Y, en este caso, ambas partes se comunicaron que ninguna quería llegar hasta el final.
La guerra siempre es una locura, pero, en este caso, parece que había algún método detrás. ¿Qué mente estaba trabajando entre bastidores? ¿Es Trump un genio hamletiano que esconde agudas habilidades estratégicas tras una fachada de bufonada? Nadie puede decirlo, pero mi impresión es que es inteligente, sí, pero un genio, no. Entonces, ¿qué provocó el cambio en el comportamiento de la maquinaria militar estadounidense?
Creo que es posible proponer una respuesta: la Inteligencia Artificial.
Saben que la IA ha avanzado de forma impresionante desde la introducción de ChatGPT en 2022, y ahora los chatbots y los agentes de IA están integrados en todos los sectores de las operaciones de toma de decisiones humanas. Sabemos que se utilizan a nivel táctico, por ejemplo, para operar drones. Pero es probable, casi seguro, que también se utilicen a nivel estratégico. Al igual que en el caso del pico del petróleo, la gente no dirá qué memes rondan por la mente, pero es cierto que muchos se ven afectados por la IA, y algunos podrían definirse como adictos.
Por supuesto, no puedo saber qué papel desempeña la IA en las decisiones estratégicas actuales. Preguntarles a los propios chatbots no funcionaría. Así que pensé en una prueba: ¿qué habría pasado si la IA hubiera estado disponible cuando se cometieron los grandes errores en Irak y Afganistán? Así que pregunté a Grok 3 y a ChatGPT cómo habrían asesorado al gobierno estadounidense sobre la invasión de Afganistán basándose en los datos disponibles en ese momento. Los bots de IA pueden hacer algo que los humanos ni siquiera podemos soñar: analizar el pasado sin dejarnos influir por factores emocionales o políticos.
Tanto Grok como ChatGPT afirmaron que, de haber existido en 2001, no habrían recomendado la invasión de Afganistán. Ambos comprendían que la percepción de los «inmensos recursos petroleros» de la región del Caspio era muy exagerada, incluso con base en los datos disponibles en ese momento. No se dejaron influir por el pensamiento colectivo, ni necesitaban presumir ni ganar influencia en el grupo. Su sugerencia se basó simplemente en un análisis de los datos disponibles. No es que fueran pacifistas; sí sugirieron bombardeos selectivos contra posiciones de Al Qaeda. Pero nótese que, si las IA dieron el mismo consejo al gobierno estadounidense para Irán, entonces podemos entender por qué la operación se limitó a un bombardeo.
Por supuesto, entiendo que solo estoy proponiendo una hipótesis, y no tengo forma de saber cuán profundamente está integrada la IA en el proceso de decisión del gobierno estadounidense. Y, por supuesto, sé que los chatbots de IA pueden ajustarse para proporcionar las respuestas que los usuarios desean. Pero, en general, creo que estamos ante un avance positivo que puede cambiar muchas cosas en el futuro.
Y aún no hemos visto nada. El asunto de «DOGE» fue fugaz, pero fue una innovación notable en la gestión gubernamental. Veremos muchos cambios en el futuro. ¿Para bien o para mal? Como de costumbre, avanzamos hacia el futuro sin un mapa.
N. del E.:
[1] https://es.wikipedia.org/wiki/Preste_Juan
[2] https://aurelien2022.substack.com/p/digging-deeper
——————————————————————————————————————-
UB
16/06/2025
Fuente: 16.06.2025, desde el substack .com de Ugo Bardi “The Seneca Effect” (“El Efecto Séneca”), autorizado por el autor.







Déjanos tu comentario: