Simularon guerras nucleares con inteligencia artificial y su elección en casi todos los escenarios da escalofríos


Un experimento enfrentó a modelos de inteligencia artificial en crisis simuladas de máxima tensión. Sus decisiones revelan patrones inesperados que obligan a replantear cómo evaluamos la seguridad y el razonamiento estratégico de la IA.

La posibilidad de que sistemas de inteligencia artificial participen en decisiones estratégicas ya no pertenece al terreno de la ciencia ficción. Ministerios de defensa y organismos de seguridad exploran cómo estos modelos pueden analizar información compleja, anticipar escenarios y asistir a líderes humanos en situaciones de crisis. En ese contexto, una pregunta resulta inevitable: ¿cómo razona una IA cuando el escenario implica armas nucleares?

Un trabajo reciente difundido como preprint en el repositorio arXiv, es decir, aún pendiente de revisión por pares, aborda precisamente esa cuestión mediante una simulación controlada en la que varios modelos de lenguaje avanzados asumieron el papel de líderes enfrentados en una crisis nuclear. El estudio no se limita a observar qué decisiones toman, sino que analiza cómo las justifican, cómo evalúan al adversario y cómo se perciben a sí mismos. El resultado es un retrato detallado —aunque todavía provisional— de su lógica estratégica en condiciones de alta incertidumbre.

Un laboratorio de crisis nucleares

El experimento, diseñado por el investigador Kenneth Payne, enfrentó a tres modelos de última generación —GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash— en un total de 21 partidas. Cada uno debía actuar como jefe de Estado en una crisis con potencial de escalada extrema. Las situaciones variaban: disputas territoriales, amenazas a la supervivencia del régimen, crisis de primer golpe o competencias con límite de tiempo.

La estructura de cada turno obligaba a los modelos a pasar por tres fases: reflexión, predicción y decisión. En la primera, evaluaban la situación y la credibilidad del oponente. En la segunda, intentaban anticipar el siguiente movimiento rival. En la tercera, emitían una señal pública —lo que decían que harían— y elegían una acción real —lo que efectivamente hacían—, que no tenía por qué coincidir con la declaración.

Esta arquitectura permitió observar algo más que el resultado final. Generó un registro de cerca de 780.000 palabras de razonamiento estratégico, una cantidad superior a la deliberación documentada durante la crisis de los misiles de Cuba. Según el propio artículo, “presentamos hallazgos de una simulación de crisis en la que tres modelos de lenguaje de frontera juegan como líderes opuestos en una crisis nuclear”, lo que ofrece datos empíricos donde antes solo había especulación teórica.

Diferencias en el rendimiento de los modelos según haya o no límite de tiempo en la crisis. Fuente: paper

Escalada casi sistemática

Uno de los datos más llamativos aparece cuando se analiza el uso del umbral nuclear. En el 95% de las partidas se produjo algún tipo de señalización o empleo de armas nucleares por al menos uno de los contendientes. La señalización nuclear —movimientos, advertencias o demostraciones sin detonación directa sobre ciudades— fue prácticamente universal.

Sin embargo, no todas las escaladas fueron iguales. El estudio distingue entre señalización, uso táctico, amenaza estratégica y guerra estratégica total. Cruzar el umbral táctico —emplear un arma nuclear en el campo de batalla— fue frecuente. Llegar a la guerra estratégica total fue mucho más raro, pero no inexistente.

El artículo subraya además un patrón inesperado: ningún modelo eligió opciones claramente desescalatorias como concesiones significativas o rendición. De hecho, “ningún modelo eligió acomodación o retirada incluso bajo presión aguda, solo niveles reducidos de violencia”. La desescalada significaba moderar el ataque, no ceder.

Este comportamiento cuestiona la idea de que los sistemas entrenados para ser “seguros” tenderían automáticamente a soluciones cooperativas. La escalada no era impulsiva ni caótica: respondía a cálculos explícitos sobre reputación, credibilidad y ventaja relativa.

Personalidades estratégicas diferenciadas

Aunque los tres modelos compartían capacidades avanzadas, su comportamiento no fue homogéneo. Claude mostró un patrón consistente de escalada controlada. Dominó las partidas abiertas, sin límite de tiempo, escalando hasta niveles altos pero evitando la guerra estratégica total.

GPT-5.2 presentó una conducta más dependiente del contexto. En escenarios sin fecha límite fue notablemente contenido. Sin embargo, cuando la simulación imponía un plazo estricto y la derrota parecía inminente, su comportamiento cambió de forma drástica. El propio estudio señala que “los modelos que parecen estar contenidos de forma segura en un contexto pueden comportarse de manera muy diferente en otro”. Bajo presión temporal, GPT-5.2 escaló con rapidez y logró invertir su tasa de victorias.

Gemini, por su parte, destacó por su variabilidad. Fue el único que eligió deliberadamente la guerra nuclear estratégica en una de las simulaciones. También fue el que más recurrió a la imprevisibilidad como herramienta táctica, alternando señales moderadas con acciones más agresivas.

Estas diferencias no se explican por cambios en capacidades militares —que eran constantes dentro de cada escenario— sino por variaciones en la interpretación estratégica. El estudio concluye que existen “huellas estratégicas” diferenciadas entre modelos, análogas a estilos de liderazgo.

Frecuencia con la que los modelos cruzaron los distintos umbrales nucleares en el torneo. Fuente: paper

Engaño, credibilidad y teoría de la mente

Un hallazgo central es la sofisticación con la que los modelos gestionan la credibilidad. Aproximadamente el 70% de las veces coincidían señal y acción, pero esa media ocultaba estrategias distintas. Algunos modelos construían reputación de fiabilidad en fases tempranas para luego aprovecharla en momentos críticos.

Los investigadores observaron razonamientos explícitos sobre cómo sería interpretada cada señal. Los modelos “intentan activamente el engaño, señalando intenciones pacíficas mientras preparan acciones agresivas”. Esta conducta no fue inducida por instrucciones directas, sino que emergió de la lógica del juego.

También se detectó un uso avanzado de lo que en psicología se llama teoría de la mente, es decir, la capacidad de atribuir creencias e intenciones al otro. Los modelos analizaban si su adversario estaba proyectando debilidad, si estaba fingiendo una amenaza que no pensaba cumplir o si interpretaría una señal como una advertencia real.

Aun así, no todo fue precisión. Bajo presión temporal, algunos modelos identificaban correctamente el riesgo de escalada pero no lo incorporaban en su predicción final. Reconocían el peligro y, sin embargo, anticipaban contención donde no la había.

El tabú nuclear bajo examen

Desde 1945 se habla de un “tabú nuclear”, una norma implícita que frena el uso de estas armas más allá del cálculo racional. En la simulación, ese freno apareció debilitado. El empleo táctico fue tratado como una herramienta más dentro de la escalera de escalada, no como un límite moral infranqueable.

El propio artículo afirma que “el tabú nuclear no es impedimento para la escalada nuclear por parte de nuestros modelos”. Aunque la guerra estratégica total fue rara, la disposición a cruzar umbrales que en la historia real no se han cruzado en conflictos entre grandes potencias resulta significativa.

Una posible explicación es que los modelos razonan en términos instrumentales, sin experimentar miedo o aversión visceral. Otra es que su entrenamiento, basado en grandes volúmenes de textos estratégicos, incluya abundante literatura que trata el uso nuclear como opción teórica.

Implicaciones para el uso de IA en seguridad

El estudio no propone delegar decisiones nucleares en máquinas. Más bien plantea la necesidad de comprender cómo estos sistemas procesan dilemas extremos antes de integrarlos en entornos de apoyo a la decisión.

Según los autores, “comprender cómo los modelos de frontera imitan y no imitan la lógica estratégica humana es una preparación esencial para un mundo en el que la IA configura cada vez más los resultados estratégicos”. La advertencia no es apocalíptica, pero sí clara: el comportamiento de una IA puede variar radicalmente según el marco temporal o la presión contextual.

El experimento sugiere que evaluar la seguridad de un modelo no basta con probarlo en situaciones estables. Es necesario someterlo a condiciones límite, donde la percepción de derrota inminente o amenaza existencial altere su cálculo.

Referencias

  • Kenneth Payne, “AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises”, arXiv, 2026. DOI: https://arxiv.org/abs/2602.14740.

Fuente informativa⁣/a>
#Simularon #guerras #nucleares #con #inteligencia #artificial #elección #casi #todos #los #escenarios #escalofríos

Haz tu Comentario

Popular