¿Es correcto el uso militar de la inteligencia artificial?

La velocidad de un misil balístico es tal que un hombre es incapaz de tomar una decisión a tiempo y activar un sistema diseñado para interceptarlo

¿Es correcto el uso militar de la inteligencia artificial?

Autor: Pedro Guzmán

Actualmente, todos los sistemas de defensa antimisiles se basan en la inteligencia artificial (IA). Sin embargo, ella puede cometer errores que lleven a unas consecuencias peligrosas, declaró a Sputnik Yuri Knútov, experto militar y director del Museo de Defensa Aérea.

La velocidad de un misil balístico es tal que un hombre es incapaz de tomar una decisión a tiempo y activar un sistema diseñado para interceptarlo, apuntó Knútov.

«Los sistemas de defensa antimisiles se basan todos en la inteligencia artificial, porque la velocidad de un misil balístico es gigantesca, y la de un antimisil también. Acabamos de empezar a pensar y el misil ya ha volado. Así que solo la IA puede tomar la decisión adecuada. Nuestros sistemas de misiles antiaéreos, los franceses y los estadounidenses están todos construidos teniendo esto en cuenta», señaló.

El experto puso como ejemplos el sistema de defensa antiaérea Pantsir-S1, en el que la IA detecta el objetivo y abre fuego, así como en los sistemas SAMP/T Mamba que Francia e Italia tienen previsto suministrar a Ucrania.

En lo que respecta a la aviación, ni siquiera el piloto de mayor categoría puede competir con la inteligencia artificial, considera el experto militar.

«Nuestro Su-57 solo tiene un piloto, y en realidad debería haber dos. En lugar de un segundo piloto, se utiliza la IA con bastante éxito. Pero hay un control humano en la cabina. Lo mismo ocurre con los estadounidenses. Hace un año, realizaron una prueba interesante: tomaron a un piloto de los marines estadounidenses y le montaron un programa determinado, hicieron un simulador, y a su lado había el mismo simulador, solo que para la IA. En el primer combate, el piloto, un profesional del más alto nivel, duró unos segundos. Cuando se realizaron diez combates con la IA, aproximadamente en el décimo combate el hombre fue capaz de durar unos veinte segundos», comentó Knútov.

Sin embargo, la IA puede cometer errores que provoquen consecuencias peligrosas, prosiguió. En este contexto, el analista recordó la definición de la visión artificial.

«Digamos que una máquina se carga con imágenes de un tanque en invierno, verano, otoño, primavera, al aire libre, en la ciudad, etcétera. Cuando se estén llevando a cabo operaciones militares, la IA determinará si se trata de un T-72 o de un Abrams basándose en la información que tiene en su memoria. Si se trata de una IA estadounidense, deberá disparar contra el T-72, pero no contra el Abrams. Pero, por supuesto, puede producirse un error», resaltó.

Así, en sus palabras, los estadounidenses cometieron errores de este tipo varias veces, cuando, por ejemplo, durante unas pruebas en los polígonos de tiro, la IA seguía fallando y el equipo militar empezaba a disparar contra su propia gente.

Además, Knútov comentó la declaración del empresario estadounidense Elon Musk quien describió la IA como una de las principales amenazas para la humanidad. Según el experto militar, la capacidad de autoaprendizaje de la IA realmente podría hacer que los superordenadores fueran peligrosos para el ser humano.

«Cuando se crea una IA de nivel bastante alto, en el proceso de autoaprendizaje, puede decidir que es más inteligente, que está más avanzada y que tiene derecho a estar en el terreno y que los humanos son criaturas superfluas. La probabilidad de que esto ocurra es muy alta», precisó.

Aquí se refirió a las «reglas» de Isaac Asimov, el escritor estadounidense de ciencia ficción que formuló sus tres leyes de la robótica, según las cuales la IA nunca debería actuar contra los humanos. Pero, en la opinión de Knútov, esto no es más que una afirmación, y, además, en el proceso de autoaprendizaje de las IA pueden acumularse ciertos errores, que pueden ser de naturaleza sistémica.

«Como resultado, supondremos que la IA actúa según un escenario, pero puede acumular errores de programación que la lleven a mirar a las personas de forma hostil o a decidir que es Dios», concluyó el experto.

Fuente Sputnik


Reels

Ver Más »
Busca en El Ciudadano