Agencias de ciberseguridad de 18 países crean una guía para diseñar una IA segura: España se queda fuera

Este acuerdo internacional mantiene a la inteligencia artificial a salvo de los usos malintencionados, de esta manera, se intenta crear un ecosistema seguro.
Esta guía antepone la seguridad de las empresas y usuarios.
Esta guía antepone la seguridad de las empresas y usuarios.
Bing Image Creator
Esta guía antepone la seguridad de las empresas y usuarios.

La Unión Europea quiere hacer oficial su primera regulación de inteligencia artificial (IA) para aplicar diversas restricciones según el alcance que tenga dicha tecnología, además, esta ley tiene la intención de proteger la seguridad, la privacidad, los derechos y los valores democráticos de los usuarios. Por nuestra parte, España hizo “sus deberes” y “está lo mejor preparada que puede estar” para dar inicio a este proceso de modernización y transformación en clave digital, pero ¿existe alguna guía para diseñar una IA segura?

La respuesta a esta pregunta es un sí, debido a que las agencias estatales de unos 18 países han firmado el primer acuerdo internacional sobre cómo mantener la inteligencia artificial a salvo de los usos malintencionados.

Este documento, de 20 páginas, contiene recomendaciones en su mayoría generales, como monitorear los sistemas de inteligencia artificial para detectar abusos, proteger los datos contra la manipulación y examinar a los proveedores de software. Además, fija que las empresas que emplean dicha tecnología deben desarrollarla e implementarla de forma que mantenga a los clientes y al público en general alejados del uso indebido.

Por otro lado, los países que han firmado esta guía son Estados Unidos, Reino Unido, Israel, Francia o Alemania, Australia, Canadá, Chile, República Checa, Estonia, Italia, Japón, Nueva Zelanda, Nigeria, Noruega, Polonia, Corea del Sur y Singapur. Asimismo, un factor a tener en cuenta es que las propuestas reunidas de todos estos países son un hito clave en el compromiso colectivo de gobiernos de todo el mundo para desplegar una inteligencia artificial que sea segura por defecto.

Este acuerdo aborda cuestiones sobre cómo evitar que los ciberdelincuentes se apropien de inteligencia artificial, incluye recomendaciones para publicar modelos seguros, aconseja a las empresas y usuarios de sus posibles riesgos, intenta crear un ecosistema seguro, afronta desafíos de cada modelo algorítmico y cuenta con la colaboración de grandes tecnológicas.

Por otro lado, Jen Easterly, directora de la Agencia de Seguridad de Infraestructura y Ciberseguridad de Estados Unidos, afirma al diario Reuters que es tan "importante que tantos países respaldaran la idea de que los sistemas de inteligencia artificial debían anteponer la seguridad. Esta es la primera vez que hemos visto una afirmación de que estas capacidades no deberían consistir sólo en características interesantes y en qué tan rápido podemos llevarlas al mercado o cómo podemos competir para reducir los costos. Un acuerdo de que lo más importante que hay que hacer en la fase de diseño es la seguridad".

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento