¿Un dron militar controlado por inteligencia artificial 'mata' a su operador humano en una simulación?

  • Según el coronel Hamilton, de la Fuerza Aérea de EE. UU., se trató de una prueba virtual. El sistema detectó que "el operador humano le decía que no eliminara la amenaza" y "mató al operador". Posteriormente, el oficial se ha retractado.
Imagen compartida en el blog sobre el suceso.
Imagen compartida en el blog sobre el suceso.
Real Sociedad Aeronáutica
Imagen compartida en el blog sobre el suceso.

“Un dron controlado por IA se vuelve rebelde y 'mata' a un operador humano en una prueba simulada de la USAF”. Ese fue el titular de Vice News en un artículo que acumuló decenas de miles de interacciones en las redes sociales a las pocas horas de su publicación el jueves por la noche. Los medios norteamericanos e internacionales, incluido 20minutos, se han hecho eco de la supuesta noticia.

Según la información inicial, un dron con licencia militar impulsado por inteligencia artificial (IA) había decidido ‘matar’ a su operador humano en una prueba virtual organizada por el Ejército de Estados Unidos.

La IA, al parecer, había usado “estrategias altamente inesperadas para lograr su objetivo” en la prueba simulada, dijo el coronel Tucker ‘Cinco’ Hamilton, jefe de Pruebas y Operaciones con Inteligencia Artificial de la Fuerza Aérea de EE. UU., durante la Cumbre de Capacidades Aéreas y Espaciales para el Combate del Futuro celebrada recientemente en Londres. Sus declaraciones se han recogido en un post del blog de la Real Sociedad Aeronáutica. Sin embargo, un día después la fuente se ha retractado. Y la Fuerza Aérea de los EE. UU. ha negado que alguna vez haya realizado "ninguna simulación de drones de Inteligencia Artificial".

Según la información inicial, el coronel estaba hablando de un caso concreto en el que, durante una simulación, se aconsejó a un dron impulsado por IA que destruyera los sistemas de defensa aérea del enemigo y, en última instancia, atacara a cualquiera que interfiriera con esa orden.

La máquina, con tal de cumplir con la misión asignada, decidió que tenía que llevarse todo —y a todos— por delante: “El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le decía que no eliminara esa amenaza […] Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”, explicaba Hamilton.

Pero el humano no fue el único afectado. Cuando el sistema de entrenamiento advirtió al dron de que no matase al operador porque por ello podía “perder puntos”, el vehículo la tomó con este y comenzó a destruir la torre de comunicación.

Así, en este escenario virtual, el dron de la fuerza aérea controlado por IA antepuso la meta para la que le habían programado al respeto a la vida, ‘aniquilando’ a un ser humano porque interfería con sus esfuerzos para lograr su misión.

Esto fue solo una simulación, es decir, ninguna persona real resultó herida. Sin embargo, el caso ha levantado bastantes preocupaciones.

En una declaración a Insider, la portavoz de la Fuerza Aérea, Ann Stefanek, ha negado que la simulación descrita por Hamilton haya ocurrido alguna vez.

El Departamento de la Fuerza Aérea no ha realizado ninguna simulación de este tipo con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA”, ha afirmado Stefanek.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento