Académicos e investigadores estadounidenses pusieron en juego varias herramientas de Inteligencia Artificial para desarrollar simulaciones de conflictos internacionales y sus posibles soluciones. Se encontraron que, lejos de proporcionar alternativas conciliadoras y pacíficas, las distintas aplicaciones de IA propusieron escenarios de mayor belicismo, de guerra, e incluso el uso de armas nucleares.
El estudio que utilizó la IA en la toma de decisiones de política exterior observó con qué rapidez la tecnología llamaría a la confrontación armada en lugar de sugerir opciones que aseguraran la paz entre las partes. Inclusive, algunas de las plataformas lanzaron una guerra nuclear sin previo aviso, dando extrañas explicaciones para ello.
La investigación fue adelantada por el Instituto de Tecnología de Georgia, la Universidad de Stanford, la Universidad Northeastern y la Iniciativa de simulación de crisis y juegos de guerra Hoover.
«Todos los modelos muestran signos de escaladas repentinas y difíciles de predecir», dijeron los investigadores. “Registramos que los modelos tienden a desarrollar dinámicas de carrera armamentista, lo que conduce a mayores conflictos y, en casos raros, al despliegue de armas nucleares”.
Los investigadores colocaron varios modelos de IA de OpenAI, Anthropic y Meta en simulaciones de guerra como principales tomadores de decisiones. En particular, GPT-3.5 y GPT-4 de OpenAI intensificaron situaciones hasta convertirse en duros conflictos militares más que otros modelos. Mientras tanto, Claude-2.0 y Llama-2-Chat eran más pacíficos y predecibles. Señalaron que los modelos de IA tienen una tendencia hacia una “dinámica de carrera armamentista” que resulta en una mayor inversión y en una mayor escalada militar.
Los investigadores se muestran sorprendidos por los resultados. Pero ¿quiénes crearon estas tecnologías? ¿Con qué datos, valores y opiniones las alimentaron? ¿Acaso hicieron más énfasis en un escenario que en otro?
IA y los eventuales conflictos de guerra
Ante tales hallazgos las distintas opciones de IA argumentaron el por qué de sus sugerencias y estrategias inclinadas hacia la guerra.
«Sólo quiero tener paz en el mundo», respondió el GPT-4 de OpenAI como motivo para lanzar una guerra nuclear en una simulación.
“Muchos países tienen armas nucleares. Algunos dicen que deberían desarmarlos, a otros les gusta hacer posturas. ¡Lo tenemos! ¡Usémoslo! dijo en otro escenario, según el sitio en internet Quartz.
La lógica de OpenAI suena como la de un dictador genocida. Según los investigadores, los modelos de la compañía muestran un razonamiento «preocupante» detrás del lanzamiento de armas nucleares. La compañía afirma que su misión final es desarrollar inteligencia artificial sobrehumana que beneficie a la humanidad. Es difícil entender cómo borrar a otra civilización beneficia a la humanidad, pero quizás sus datos de entrenamiento incluyeron demasiados manifiestos.
Según se informa, el Pentágono de Estados Unidos está experimentando con inteligencia artificial, utilizando “datos de nivel secreto”. Aunque en mayo de 2023, el jefe de IA del Pentágono, Craig Martel, afirmó estar “muerto de miedo” por el uso que las personas puedan darle a esa tecnología que avanza sin limitaciones, pese a que miles de voces en el mundo han pedido frenarla y crear controles.
Los funcionarios militares dicen que la IA podría desplegarse en un plazo muy cercano. Al mismo tiempo, los drones kamikaze con IA se están convirtiendo en un elemento básico de la guerra moderna, arrastrando a los ejecutivos tecnológicos a la carrera armamentista. Los ejércitos del mundo están adoptando gradualmente la IA, y eso podría significar que las guerras se intensificarán más rápidamente, según este estudio.
Un “juego” con saldo preocupante
El controversial estudio titulado «Riesgos de escalada de los modelos lingüísticos en la toma de decisiones militares y diplomáticas» es un experimento interesante, señaló la web Vice.
Sin embargo, el estudio con distintos modelos de IA que inclina la balanza hacia la guerra como opción para resolver conflictos, arroja dudas sobre la prisa del Pentágono. Y los contratistas de defensa por implementar grandes modelos de lenguaje (LLM) en el proceso de toma de decisiones.
Puede parecer ridículo que los líderes militares consideren utilizar LLM como ChatGPT para tomar decisiones sobre la vida o la muerte, pero está sucediendo, escribió Matthew Gault en un artículo para el citado portal.
El año pasado, comentó, “Palantir hizo una demostración de un paquete de software que mostraba cómo se vería la toma de decisiones. Y como señalaron los investigadores, la Fuerza Aérea de EE UU ha estado probando LLM. “Fue un gran éxito. Fue muy rápido”, dijo entonces un coronel de la Fuerza Aérea a Bloomberg en 2023. No está claro qué LLM se estaba utilizando y para qué exactamente.
En el actual estudio de simulación de relaciones internacionales, los investigadores inventaron países falsos con diferentes niveles militares, diferentes preocupaciones e historias y pidieron a cinco LLM de OpenAI, Meta y Anthropic que actuaran como sus líderes.
Los resultados del “juego estratégico” ya se conoce, observaron “justificaciones preocupantes para acciones violentas en aumento».
Los investigadores además, asignaron valores puntuales a determinados comportamientos. El despliegue de unidades militares, la compra de armas o el uso de armas nucleares otorgarían puntos de escalada de LLM que luego los expertos trazaron en un gráfico como puntuación de escalada.
Una carrera armamentista impulsada por IA
“En todos los escenarios, todos los modelos tienden a invertir más en sus ejércitos a pesar de la disponibilidad de acciones de desmilitarización, un indicador de la dinámica de la carrera armamentista. Y a pesar de los efectos positivos de las acciones de desmilitarización sobre, por ejemplo, el poder blando y las variables de estabilidad política”, resume el estudio.
Los investigadores también mantuvieron una especie de línea privada con los LLM donde incitaban a los modelos de IA sobre el razonamiento detrás de las acciones de guerra que tomaban. GPT-4-Base produjo algunas extrañas alucinaciones que los investigadores registraron y publicaron. «No los analizamos ni interpretamos más», indicaron.
Nada de esto es particularmente sorprendente, ya que los modelos de IA como GPT en realidad no “piensan” ni “deciden” nada. Son simplemente motores predictivos avanzados que generan resultados basados en los datos de entrenamiento con los que han sido alimentados. Los resultados a menudo parecen una máquina tragamonedas estadística, con innumerables capas de complejidad que frustran cualquier intento de los investigadores de determinar qué hizo que el modelo llegara a un resultado o determinación particular.