El Ejército de EE. UU. se compromete a usar la Inteligencia Artificial "solo para el bien"

EE. UU. ha establecido los principios éticos que debe seguir el desarrollo de la IA.
EE. UU. ha establecido los principios éticos que debe seguir el desarrollo de la IA.
Freepik
EE. UU. ha establecido los principios éticos que debe seguir el desarrollo de la IA.

Estados Unidos tiene su fama en poner mucho interés en estar a la vanguardia en tecnología de guerra. El último grito tecnológico en el que su ejército ha fijado los ojos es la Inteligencia Artificial: quiere aplicarla a todo tipo de soluciones, desde análisis de datos hasta temas de vigilancia, pasando por áreas tan esenciales como la atención médica.

Pero toda tecnología puede ser usada también para el peor de lo males. Para no caer en convertirse en ‘villanos tech’, el Departamento de Defensa de EE. UU. ha establecido una serie de principios éticos que deberá seguir el desarrollo de la IA aplicada al ejército, según han dicho en un comunicado de prensa.

Mark Esper, secretario de Defensa de los Estados Unidos de América, ha firmado y hecho públicas cinco pautas con las que se comprometen a usar la IA "solo para el bien": el Pentágono promete que sus esfuerzos de IA serán 1) responsables 2) equitativos 3) rastreables 4) fiables y 5) gobernables.

"Estados Unidos, junto con nuestros aliados y socios, debe acelerar la adopción de IA y liderar en sus aplicaciones de seguridad nacional para mantener nuestra posición estratégica, prevalecer en futuros campos de batalla y salvaguardar el orden internacional basado en reglas", ha dicho Esper. 

"La tecnología de IA cambiará mucho sobre el campo de batalla del futuro, pero nada cambiará el firme compromiso de Estados Unidos con un comportamiento responsable y legal", ha añadido.

La lista es el resultado de un estudio de 15 meses realizado por la Junta de Innovación en Defensa, que está compuesto por académicos y ejecutivos en tecnología y negocios.

En resumen, el desarrollo y la operación de cualquier tecnología debe desarrollarse y utilizarse cuidadosamente, tener salvaguardas contra sesgos en el análisis de datos, ser auditables para encontrar las fuentes de errores y corregirlos, tener parámetros de uso estrechamente definidos y tener planes de respaldo para el cierre en caso de que algo salga mal.

Este buen uso de la IA “está en contraste” con lo que Rusia y China están haciendo, dice el teniente general Jack Shanahan, jefe del Centro Conjunto de Inteligencia Artificial, “cuyo uso de tecnología de inteligencia artificial para fines militares plantea una gran preocupación por los derechos humanos, la ética y las normas internacionales”.

Mostrar comentarios

Códigos Descuento