En guerra con 'Terminator'

Tica Font  Miembro del grupo de Desarme y antimilitarismo de Wilpf España y del C. Delas d'Estudis per la PauOPINIÓN
Arnold Schwarzenegger and Linda Hamilton star in Skydance Productions and Paramount Pictures' "TERMINATOR: DARK FATE."
Arnold Schwarzenegger y Linda Hamilton. "TERMINATOR: DARK FATE."
KERRY BROWN

Si es usted una persona familiarizada con la trama de Terminator  entenderá fácilmente qué es lo que quiere evitar la campaña internacional Stop Killer Robots. La distopía no parece tan lejana y esta campaña es lo más parecido que tenemos a Sarah Connor.

Los departamentos de Defensa de Estados Unidos, Israel, Rusia y China encabezan las inversiones en investigaciones para desarrollar un tipo de robot con capacidad de matar sin intervención humana. Si sumamos a la Unión Europea, estos países representan el 70% de la inversión mundial para lograr un robot capaz de identificar y localizar a una persona, en cualquier parte del planeta y tomar por sí solo la decisión de matarla. El objetivo es que no sea necesaria la intervención humana, ni militar, ni política... ni judicial. 

Estas armas funcionarían de una manera parecida a los traductores de texto: basándose en nuevos algoritmos de aprendizaje profundo y en la dotación de millones de datos. En los traductores, hay un margen de error que el usuario corrige. En el caso de un arma autónoma, los errores implican la pérdida de vidas humanas. Son, por tanto, irreparables.

La cuestión es si debemos permitir que la fabricación de sistemas de armas que puedan matar de manera autónoma pero no puedan comprender el contexto, distinguir entre un civil con miedo o un enemigo amenazante, ni entender las intenciones que hay detrás de una expresión humana. Delegar en una máquina la decisión de matar va en contra de la dignidad humana y de los derechos de las personas.

Por otro lado, hay tres principios básicos que deberían respetarse en un escenario bélico: el principio jurídico de proporcionalidad, que analiza si los daños causados son proporcionales a las ganancias militares obtenidas o si los daños a civiles son excesivos; el principio jurídico de distinción, que obliga a distinguir entre combatientes y no combatientes; y el principio de responsabilidad. Si se produce un error o un crimen de guerra, ¿quién es el responsable? 

Ante la dificultar de dirimir responsabilidades cabe esperar que todos los implicados intenten evadir la responsabilidad y que, por tanto, impere la impunidad. Abrir la puerta a la posibilidad de hacer guerras sin riesgo puede hacer prevalecer las soluciones militares por encima de las políticas. La inteligencia artificial hará más fácil pensar en guerras a distancia más abstractas, hecho que puede derivar en una escalada de los conflictos.

Mostrar comentarios

Códigos Descuento