Tomás Noticias

El enorme peligro de dejar a la inteligencia artificial tomar decisiones militares

Escrito por Michael Cortes Ascencio | Jun 12, 2024 7:41:23 PM

Desde robots asesinos hasta una logística más inteligente, la inteligencia artificial promete cambiar la forma en que los ejércitos combaten y desarrollan armas. A medida que esta nueva tecnología entra en funcionamiento, las oportunidades se hacen patentes, pero también los peligros.

El éxito de taquilla de 1983 de John Badham, "Juegos de guerra", sirvió de advertencia temprana sobre las crecientes conexiones entre la tecnología y la guerra. Para quien no haya visto la película, un joven hacker consigue introducirse en los sistemas informáticos del Ejército de los Estados Unidos y está a punto de desencadenar una guerra nuclear creyendo que está jugando a un videojuego.

La moraleja de este filme es que la tecnología nunca debería controlar sistemas clave que pudieran poner en peligro la continuidad de la vida en la Tierra. Sin embargo, cuatro décadas más tarde, en 2023, este futuro aparentemente lejano se ha hecho ominosamente más cercano a la realidad. La visión de un mundo en el que la inteligencia artificial ejerce un poder alarmante deja entrever los peligros de confiar a la IA el control de la tecnología militar.

 

Tal y como se explica en este artículo de Foreign Affairs y en este otro de The New York Times, a mediados de la década de 2010 surgió un nuevo tipo de carrera armamentística entre las superpotencias mundiales, centrada en la IA frente al desarrollo de armamento físico. Los vehículos aéreos no tripulados y los drones autónomos, por ejemplo, están programados para realizar tareas de vigilancia y pueden ejecutar misiones enteras de combate y ataques con drones con una intervención humana mínima.

El avión de combate experimental con IA de las Fuerzas Aéreas estadounidenses, el Valkyrie, voló por primera vez el mes pasado sin humanos a bordo. Las tecnologías están empezando a superar rápidamente a los humanos, como ocurrió con el algoritmo de IA que venció fácilmente a varios pilotos humanos de F-16 en pruebas de combate aéreo en agosto.

Muchos expertos han expresado su preocupación por las implicaciones morales de estos avances. Mary Wareham, una de las principales activistas en la lucha para restringir el armamento de IA, expresó estos sentimientos en una entrevista con el Center for Public Integrity. El principal argumento de Wareham gira en torno al hecho de que las máquinas carecen de compasión. Como resultado, son incapaces de resolver alternativas éticas difíciles: utilizar máquinas controladas por IA para matar cruza un umbral moral. El despliegue de estas armas autónomas podría provocar víctimas involuntarias, ya que se confía a la IA la toma de decisiones de vida o muerte sin la debida supervisión.

La vulnerabilidad de la IA militar

Estos sistemas militares impulsados por IA también son especialmente vulnerables a los ciberataques. El envenenamiento de datos y la piratería informática permiten a personas malintencionadas infiltrarse y alterar los algoritmos de IA, inutilizándolos o incluso volviéndolos contra sus operadores. Tal fue el caso en 2016, cuando un equipo de piratas informáticos secuestró con éxito los sistemas digitales de un vehículo Jeep. Tras acceder al sistema, fueron capaces de desactivar a distancia los frenos del coche, acelerar el vehículo o incluso detenerlo por completo en la autopista. La demostración llevó a Chrysler a iniciar una llamada a revisión de 1,4 millones de vehículos, arrojando luz sobre el grave peligro que corren los civiles si se ponen en peligro los sistemas de maquinaria controlados por IA.

La rápida progresión de la IA en este sector ha llevado a muchos de sus desarrolladores a un punto de inflexión moral. Muchos directores ejecutivos de las principales empresas de IA han expresado su creciente preocupación por los riesgos que podría plantear esta tecnología. Fueron precisamente estas preocupaciones las que llevaron a Elon Musk y miles de expertos tecnológicos e investigadores a firmar una carta abierta en la que pedían una moratoria de seis meses en el desarrollo de la IA.

"Los sistemas de IA con inteligencia humana competitiva pueden plantear profundos riesgos para la sociedad y la humanidad", reza la carta. "Ni siquiera sus creadores... pueden entenderlos, predecirlos o controlarlos de forma fiable", reza el documento.

La situación ha sido inquietante, ya que el Dr. Geoffrey Hinton anunció públicamente su marcha de Google en mayo de este año. Conocido como "El Padrino de la IA", la decisión de Hinton asustó a muchos. Tras su dimisión, Hinton afirmó que la IA puede suponer una amenaza.

"La campana de alarma que estoy haciendo sonar tiene que ver con la amenaza existencial de que (la IA) tome el control", escribió Hinton. "Antes pensaba que estaba muy lejos, pero ahora creo que va en serio y está bastante cerca". Sus palabras sirven para recordar la urgencia y la magnitud de los riesgos que plantea el rápido avance de la IA en el ámbito militar.

Es importante que los desarrolladores actúen con cautela en los próximos meses. Las redes neuronales simuladas en estos algoritmos se componen de capas crecientes de sistemas de procesamiento, cada vez más entrelazados y difíciles de entender. El resultado ha sido una escalada de casos de IA de "caja negra", un subconjunto del aprendizaje automático profundo tan complejo que es imposible de explicar o entender para el usuario. Esto hace que la corrección del código y la solución de problemas sean casi imposibles, una realidad aleccionadora si se considera en el contexto de la IA militar.

Si no se regula, los expertos temen que corramos el riesgo de perder el control por completo. A medida que aumenta lo que está en juego, las consecuencias de un error podrían ser catastróficas. El camino a seguir requiere una cuidadosa deliberación, supervisión y transparencia ética de los algoritmos. Al igual que en "Juegos de guerra", la sociedad se ha visto envuelta en un extraño juego en el que la única jugada ganadora podría ser... no jugar en absoluto.

Nota sacada de:

Yahoo is part of the Yahoo family of brands. (s. f.-b).