Integración de IA a las armas nucleares podría conducir a una guerra “estilo terminator”

El mundo puede estar acercándose a una era en la que una guerra nuclear apocalíptica al estilo Terminator podría ser posible debido a que el control de las armas nucleares se cedería a la inteligencia artificial (IA), según publicaciones de científicos nucleares y expertos en defensa.

Aunque numerosos expertos de la inteligencia artificial han dicho al Jerusalem Post a lo largo de los años que la gente preocupada por que la inteligencia artificial se vuelva contra la humanidad como en las famosas películas “Terminator” simplemente malinterpreta la tecnología, la probabilidad de que la IA cometa un error catastrófico con las armas nucleares no es un cuento de hadas.

Un artículo reciente del Boletín de los Científicos Atómicos, un grupo importante de científicos nucleares, así como otras publicaciones recientes de expertos en defensa han dicho que Rusia puede estar ya integrando la inteligencia artificial en un nuevo torpedo nuclear que está desarrollando conocido como el Poseidón, para hacerlo autónomo.

De acuerdo con el informe de Atomic Scientists, los Estados Unidos y China también están considerando inyectar la inteligencia artificial más profundamente en sus programas de armas nucleares a medida que modernizan y revisan su inventario nuclear.

No ha habido informes expresos sobre la integración de la inteligencia artificial por parte de Israel en lo que, según informes extranjeros, es un aparato de entre 80 y 200 armas nucleares. Pero sí ha habido informes de que las FDI han integrado la inteligencia artificial en armas convencionales, como la bomba de especias que llevan los F-16.

Parte de la preocupación del informe era que la integración de la inteligencia artificial en los sistemas de armas nucleares podría ser culturalmente inevitable una vez que las armas no convencionales estuvieran más dominadas por la IA.

Los riesgos de holocausto nuclear sobre los que escriben los científicos y expertos no son una toma de posesión hostil por parte de la inteligencia artificial, sino el hecho de que la IA sea pirateada, se salga de control por un error técnico o juzgue mal una situación.

Tales riesgos podrían ser magnificados por vehículos no tripulados que transportan armas nucleares cuando no hay nadie a bordo y que es responsable de tomar la decisión final de desplegar un arma nuclear.

Como riesgo secundario, pero aún grave, la integración de la inteligencia artificial en los sistemas de alerta temprana podría abrumar a los responsables de la toma de decisiones humanas, que podrían ser más rápidos en el dedo índice de disparo nuclear para ceder a la tecnología a pesar de las dudas de juicio humano que pudieran tener.

Algunos estudios han demostrado que la inteligencia artificial y las pruebas automatizadas en general pueden reforzar el pensamiento de tipo burbuja y hacer más difícil para los analistas considerar narraciones alternativas sobre lo que podría estar ocurriendo en situaciones turbias y de alto estrés.

Un ejemplo que el artículo da de la importancia del juicio humano fue un incidente de 1983 cuando un oficial soviético llamado Stanislav Petrov hizo caso omiso de las advertencias audibles y visuales automatizadas de que los misiles nucleares estadounidenses estaban entrando.

Los sistemas estaban equivocados y si Petrov hubiera confiado en la tecnología por encima de sus propios instintos, el mundo podría haber entrado en una guerra nuclear por un fallo tecnológico.

El artículo también señala aspectos potencialmente valiosos de la IA en el ámbito de las armas nucleares, tales como la recopilación de datos más precisos y exhaustivos para que los responsables de la toma de decisiones adivinen en la oscuridad con menos frecuencia.

Además, la inteligencia artificial puede hacer llegar esa información clave a los responsables de la toma de decisiones mucho más rápido, mientras que en el pasado la información clave podía quedarse atascada en el proceso de recopilación sin llegar a los líderes a tiempo antes de que tuvieran que tomar una decisión.

Por otra parte, el artículo señaló que la IA se ha integrado en aspectos de los programas nucleares de los países durante algún tiempo.

Incluso en las primeras décadas de la Guerra Fría, tanto EE.UU. como Rusia tenían ciertas capacidades programadas en algunas armas nucleares para poder pasar rápidamente a apuntarse mutuamente, en lugar de aterrizar inofensivamente en el mar, si se dieran ciertos escenarios.

En general, la mayor preocupación sobre la IA en las armas nucleares es con el lado más débil en un potencial empate.

Un país como China, con capacidades mucho más limitadas en materia de armas nucleares o convencionales, podría tratar de integrar la IA en su programa de armas nucleares con la esperanza de acelerar la velocidad de despliegue de modo que los EE.UU. no puedan sacarlo de una guerra con un “primer ataque” preventivo.

Algunos analistas creen que esta podría ser una razón por la que Rusia está entreteniendo a la IA en su programa nuclear, mientras que otros ven a Moscú como queriendo acelerar su despliegue de armas nucleares para tener una mentalidad más ofensiva, y no sólo en defensa propia.

Aunque tales habilidades parecen estar muy lejos de lo que Irán puede lograr, Teherán ha tenido saltos repentinos en la tecnología nuclear en el pasado cuando recibió ayuda de Rusia, China, Corea del Norte o Pakistán.

Por: Yonah Jeremy Bob / En: Jpost /

israelnoticias.com/militar/inteligencia-artificial-armas-nucleares-terminator

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

dieciseis − 9 =