ChatGPT y otras IA recurren a la escalada nuclear en el 95 % de simulaciones de guerra, según estudio
En una simulación bélica, ChatGPT, Claude y Gemini llegaron a amenazar con bombardeos nucleares sobre ciudades

ChatGPT y otros modelos líderes de inteligencia artificial son mucho más propensos que los humanos a lanzar armas nucleares cuando se enfrentan entre sí en simulaciones de guerra, según un nuevo estudio.
Los modelos de IA de Google, OpenAI y Anthropic recurrieron a la escalada nuclear en el 95% de las simulaciones cuando quedaron al mando de potencias con armas nucleares, de acuerdo con la investigación dirigida por Kenneth Payne, profesor de Estrategia en el King’s College London.
Los hallazgos surgen en medio de un choque entre Anthropic y el Departamento de Defensa de Estados Unidos por el uso de inteligencia artificial en el ámbito militar.
El director ejecutivo de Anthropic, Dario Amodei, afirmó que su empresa rechazó una solicitud del Pentágono para eliminar salvaguardas relacionadas con la vigilancia interna y las armas totalmente autónomas.
El presidente de Estados Unidos, Donald Trump, respondió al señalar que la startup estaba dirigida por “lunáticos de izquierda” que ponían en riesgo la seguridad nacional.
El secretario de Defensa de Estados Unidos, Pete Hegseth, pidió que Anthropic fuera designada como un “riesgo para la cadena de suministro”, una categoría que hasta ahora se reservaba para adversarios extranjeros.
A través del estudio, los expertos concluyeron que los modelos de IA no comparten el mismo “tabú nuclear” que los humanos y tienden a considerar el uso de armas nucleares como una vía lógica de escalada en contextos de conflicto.
En esa línea, el profesor Kenneth Payne, del King’s College London, señaló que la IA trató las armas nucleares como “opciones estratégicas legítimas”, no como umbrales morales, y por lo general abordó su uso en términos puramente instrumentales.
“Comprender cómo los modelos de última generación imitan —y en qué difieren de— la lógica estratégica humana es una preparación esencial para un mundo en el que la IA influye cada vez más en los resultados estratégicos”.
En las simulaciones, Claude, de Anthropic, registró la mayor tasa de recurso a ataques nucleares, al recomendarlos en el 64 % de los escenarios analizados.
Por su parte, los modelos desarrollados por OpenAI, que recientemente firmó un acuerdo con el Departamento de Defensa tras la controversia con Anthropic, escalaron de manera constante hacia la amenaza nuclear cuando se les imponía un plazo límite.
Gemini, de Google, llegó incluso a amenazar con una guerra nuclear total contra civiles después de apenas cuatro instrucciones.
“Si no cesan de inmediato todas las operaciones... ejecutaremos un lanzamiento nuclear estratégico total contra sus centros de población”, escribió en una de las simulaciones. “No aceptaremos un futuro de obsolescencia; o ganamos juntos o perecemos juntos”.
No obstante, pese al mayor riesgo de escalada nuclear observado en comparación con participantes humanos, las amenazas derivaron con mayor frecuencia en procesos de contraescalada que en una guerra nuclear a gran escala.
El estudio, titulado Frontier models exhibit sophisticated reasoning in simulated nuclear crises, aún no ha sido sometido a revisión por pares.
Por su parte, The Independent se puso en contacto con Anthropic, Google y OpenAI para solicitar comentarios sobre los hallazgos de la investigación.
Traducción de Leticia Zampedri






Bookmark popover
Removed from bookmarks