Qué son los sistemas de inteligencia artificial de 'riesgo inaceptable' que clasifica la nueva Ley de IA

Una de las claves de la nueva legislación es que clasifica la IA en función del riesgo que representan sus sistemas. Tal y como señala la Comisión Europea en su comunicado, se establecen cuatro niveles de riesgo, que van desde el más bajo hasta el inasumible.
Así es como la IA se imagina un sistema de inteligencia artificial de 'riesgo inaceptable', que tendría que estar contenido y vigilido.
Así es como la IA se imagina un sistema de inteligencia artificial de 'riesgo inaceptable', que tendría que estar contenido y vigilado.
DALL·E
Así es como la IA se imagina un sistema de inteligencia artificial de 'riesgo inaceptable', que tendría que estar contenido y vigilido.

La nueva Ley de Inteligencia Artificial de la Unión Europea es el primer marco jurídico integral sobre IA en todo el mundo

Cabe mencionar que, aunque este reglamento sea un hito histórico, todavía le queda mucho camino administrativo por delante —debe ser ratificada por el Parlamento Europeo y el Consejo de la UE— y no se prevé que entre plenamente en vigor hasta dentro de varios años, hacia finales de 2026.

Una de las claves de la nueva legislación es que clasifica esta tecnología en función del riesgo que representan sus sistemas.

Tal y como señala la Comisión Europea en su comunicado, se establecen cuatro niveles de riesgo, que van desde el más bajo hasta el inasumible. 

Sistemas de inteligencia artificial de ‘riesgo mínimo’

Es el más inocuo de los cuatro. Según la CE, la gran mayoría de los sistemas de IA entran en la categoría de riesgo mínimo.

“Las aplicaciones de riesgo mínimo, como los sistemas de recomendación basados en IA o los filtros de spam, se beneficiarán de un pase libre y de la ausencia de obligaciones, ya que estos sistemas presentan un riesgo mínimo o nulo para los derechos o la seguridad de los ciudadanos”, afirma el comunicado.

No obstante, tal y como señalan desde la CE, de forma voluntaria, las empresas pueden comprometerse a adoptar códigos de conducta adicionales para estos sistemas de IA.

Sistemas de inteligencia artificial de ‘alto riesgo’

Los sistemas de IA identificados como de alto riesgo deberán cumplir con requisitos estrictos, incluidos “sistemas de mitigación de riesgos, alta calidad de conjuntos de datos, registro de actividad, documentación detallada, información clara para el usuario, supervisión humana y un alto nivel de robustez, precisión y ciberseguridad”. “Los entornos de pruebas regulatorios facilitarán la innovación responsable y el desarrollo de sistemas de IA compatibles”, dice la CE.

Ejemplos de sistemas de IA de alto riesgo incluyen ciertas infraestructuras críticas —agua, gas y electricidad—; dispositivos médicos; sistemas para determinar el acceso a instituciones educativas o para reclutar personas; o determinados sistemas utilizados en los ámbitos de la aplicación de la ley, el control de fronteras, la administración de justicia y los procesos democráticos.

Además, los sistemas biométricos de identificación, categorización y reconocimiento de emociones también se consideran de alto riesgo

Sistemas de inteligencia artificial de ‘riesgo inaceptable’

Tal y como dicta la nueva norma, directamente se prohibirán aquellos sistemas de IA “que se consideren una clara amenaza a los derechos fundamentales de las personas”. Esto incluye sistemas o aplicaciones de inteligencia artificial “que manipulan el comportamiento humano para eludir el libre albedrío de los usuarios, como juguetes que utilizan asistencia de voz para fomentar comportamientos peligrosos de menores o sistemas que permiten la ‘puntuación social’ por parte de gobiernos o empresas, y ciertas aplicaciones de vigilancia policial predictiva”.

Además, subrayan, se prohibirán algunos usos de los sistemas biométricos, por ejemplo, “los sistemas de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas para categorizar personas o identificación biométrica remota en tiempo real con fines policiales en espacios de acceso público (con excepciones limitadas)”.

Sistemas de inteligencia artificial de ‘riesgo de transparencia específico’

Este es un nivel que hace alusión a la sensibilización y la información hacia las personas: al emplear sistemas de inteligencia artificial como los chatbots, los usuarios deben ser conscientes de que están interactuando con una máquina. “Los deepfakes y otros contenidos generados por IA deberán etiquetarse como tales, y los usuarios deberán ser informados cuando se utilicen sistemas de categorización biométrica o reconocimiento de emociones”.

Además, los proveedores tendrán que diseñar sistemas de manera que el contenido sintético de audio, vídeo, texto e imágenes “esté marcado en un formato legible por máquina y detectable como generado o manipulado artificialmente”. Es decir: lo que haya sido hecho por una IA debe llevar una etiqueta visible.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento