La Inteligencia artificial está enraizándose de una forma cada vez más profunda en los aspectos cotidianos de nuestras vidas. Millones de personas la utilizan habitualmente para tareas insustanciales como contestar correos, generar imágenes con una frase o preguntar a un chatbot lo que otros tantos buscan en un navegador. Pero estos pequeños cambios en la vida cotidiana únicamente son la punta del iceberg de una tecnología mucho más poderosa. Una tecnología a la que, la OTAN, ha planteado darle una mayor importancia en el caso de una guerra nuclear.
Esta, y otras ideas sobre su uso, han encendido más de una voz de alarma entre los distintos entre cientos de científicos, expertos en inteligencia artificial e incluso los directores de las principales compañías de IA a nivel global. Por ello, hace apenas un año firmaron una breve carta abierta que contiene una única y contundente frase: “Mitigar el riesgo de extinción de la humanidad a causa de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear”.
Con esta frase, los miembros del Center for AI Safety comparan el riesgo de un mal uso de la IA con otras catástrofes que conllevan la pérdida de vidas humanas o el fin del mundo tal y como lo conocemos. De este modo, manifiestan la necesidad de vigilar de cerca el desarrollo de la IA para tratar de evitar cuatro aspectos claves: El uso malintencionado de la IA, la excesiva competitividad entre los desarrolladores, fallos graves en la seguridad y el desarrollo de una IA que pueda rebelarse contra su propósito.
Entre los firmantes de esta carta encontramos a catedráticos de las universidades más prestigiosas, como Standford y Massachussets, así como a miembros de empresas que han invertido miles de millones de dólares en esta tecnología, como Google o Microsoft. Según indican en otros documentos explicativos, la razón de esta carta es que en la actualidad no se puede asegurar que el comportamiento de una IA pueda calcular los riesgos conforme al factor humano, que en tiempos de crisis extremas ha sido determinante para evitar catástrofes mayores.
Entre otros ejemplos, los miembros del Center for AI Safety destacan el caso de Vasili Aleksándrovich Arjípov, el oficial naval de la URSS que vetó la decisión de lanzar un torpedo armado con una ojiva nuclear durante la crisis de los misiles de Cuba en 1962. Gracias a la acción de este oficial, que se negó a seguir la orden del capitán de su submarino, probablemente se evitó una guerra nuclear. Con ejemplos como este implican que, de haber sido una inteligencia artificial desarrollada por el ejército soviético la que hubiese tomado la decisión, el resultado podría haber sido distinto.
Sin embargo, algunos mandatarios de la OTAN no lo ven tan claro. En una revisión emitida en abril de 2024, explican que la visión popular de esta tecnología ha sufrido graves deformaciones por películas como Terminator 2: el juicio final (1991) o Juegos de Guerra (1983), en las que una IA toma conciencia y se vuelve contra la humanidad desatando un infierno nuclear. Este tipo de IA, denominada inteligencia artificial general o IAG, sería un sistema autónomo que excedería las capacidades humanas, aunque, según indican, es imposible desarrollarlo con nuestras capacidades actuales. Por ello, afirman, no hay peligro en introducir la IA como parte del desarrollo nuclear.
Según explican, introducir un tipo específico de IA en el sistema de navegación de las armas nucleares las dotaría con una mayor precisión y capacidad de maniobrar. A la larga, esta tecnología permitiría reducir el número de ojivas, ya que se trata de un arma disuasoria. Es decir, que si la IA permite que las armas nucleares sean más precisas, con una menor cantidad se sigue manteniendo el mismo poder de destrucción y, por tanto, podrían desmantelarse aquellas que hayan quedado anticuadas. Este escenario es similar al que ya ocurrió durante la Guerra Fría, en la que aunque la Unión Soviética tenía más cabezas nucleares disponibles, eran menos precisas que las estadounidenses, lo que equilibraba la balanza de destrucción.
Sin embargo, se trata de un tema extremadamente complejo que ha hecho levantar una ceja a mandatarios, investigadores y otras personas relacionadas con el campo bélico o de la investigación. La idea de dejar una pequeña parte de la guerra nuclear en manos de la IA parece que preocupa y asusta a partes iguales.
Sin embargo, desde el Center for AI Safety explican que este no es el mayor riesgo de la IA. La aniquilación total de la humanidad es un escenario muy poco realista, y coinciden con la OTAN que, de momento, queda reservado a las películas apocalípticas de ciencia ficción. Sin embargo, existen otros peligros que podrían darse el caso que se diera vía libre absoluta para el desarrollo de las IAs.
Uno de los usos que más preocupa en la actualidad es la capacidad para generar contenido que influye profundamente en la sociedad. Entre este contenido, los conocidos como deepfakes son cada vez más comunes y se generan a tal velocidad que resulta prácticamente imposible verificar su procedencia. De este modo, la confianza de las personas en la información disponible en las redes se encuentra cada vez más erosionada, un hecho que afecta a decisiones tanto políticas como sociales, y puede llegar a polarizar hasta desestabilizar un país.
Las iniciativas como el Center for AI Safety ponen de manifiesto la necesidad estar preparados para un escenario mucho más realista en el que la IA pueda definir el futuro de la humanidad. Con ello, abogan por reorientar los trabajos basados en IAs hacia objetivos que permitan crear un mundo más sostenible y justo. En la actualidad, al igual que durante la Guerra Fría, el horizonte está difuminado, por lo que es imposible predecir qué será del futuro de la humanidad. Al igual que en 1962 la decisión de una persona supuso una pieza clave para que el engranaje mundial siguiera girando, en el presente los expertos debaten si la IA tomará esa decisión por nosotros en el futuro, y si esta será la acertada.
Nota sacada de: