Lo que la inteligencia artificial ya no podrá hacer contigo: no podrá reconocer tus emociones en el trabajo

La nueva normativa europea ha acordado algunos límites para regular la IA, entre ellos se limita el uso de sistemas de identificación biométrica por parte de las autoridades y se prohíben los sistemas de puntuación social y para manipular o explotar las vulnerabilidades de los usuarios.
Así es como la IA se imagina los límites a la inteligencia artificial en Europa.
Así es como la IA se imagina los límites a la inteligencia artificial en Europa.
DALL·E
Así es como la IA se imagina los límites a la inteligencia artificial en Europa.

Tras más de 30 horas de negociación, la Comisión Europea, el Parlamento Europeo y el Consejo de la UE alcanzaron el pasado 8 de diciembre un acuerdo sobre la futura ley que regulará el desarrollo de la inteligencia artificial en Europa. La norma, la primera de su clase a nivel mundial, permitirá o prohibirá el uso de esta tecnología en función del riesgo que suponga para las personas.

Recordemos que este reglamento empezó a tomar forma en 2019, cuando todavía no hacíamos uso de la IA a nivel social —esto no se produjo hasta el estallido de ChatGPT— y muchas cosas han cambiado desde entonces. Solo por curiosidad he comprobado cuántas noticias sobre la herramienta de OpenAI hemos publicado en 20bits y me salen unas 700.

Actualmente, el chatbot conversacional y generativo ChatGPT tiene 100 millones de usuarios activos a la semana en el mundo y en España cuenta con más de 4 millones de usuarios.

Las novedades plantea la Ley de IA: usos prohibidos

La norma prohíbe, entre otros usos, los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por su raza y orientación sexual. Este es uno de los puntos más polémicos de la misma.

En este sentido, una de las claves de la nueva legislación es que clasifica esta tecnología en función del riesgo que representan sus sistemas. Y en función de dicho riesgo —establecido en cuatro niveles— quedan prohibidas ciertas herramientas y aplicaciones.

Tal y como dicta la nueva norma, directamente se prohibirán aquellos sistemas de IA “que se consideren una clara amenaza a los derechos fundamentales de las personas”. Esto incluye sistemas o aplicaciones de inteligencia artificial “que manipulan el comportamiento humano para eludir el libre albedrío de los usuarios, como juguetes que utilizan asistencia de voz para fomentar comportamientos peligrosos de menores o sistemas que permiten la ‘puntuación social’ por parte de gobiernos o empresas, y ciertas aplicaciones de vigilancia policial predictiva”.

Además, subrayan, se prohibirán algunos usos de los sistemas biométricos, por ejemplo, “los sistemas de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas para categorizar personas o identificación biométrica remota en tiempo real con fines policiales en espacios de acceso público (con excepciones limitadas)”.

Finalmente, al emplear sistemas de inteligencia artificial como los chatbots, los usuarios deben ser conscientes de que están interactuando con una máquina. “Los deepfakes y otros contenidos generados por IA deberán etiquetarse como tales, y los usuarios deberán ser informados cuando se utilicen sistemas de categorización biométrica o reconocimiento de emociones”.

Saltarse las pautas establecidas en la norma puede salir caro a las compañías, con multas que van desde 7,5 millones de euros o el 1,5% del volumen de negocio a otras de 35 millones o el 7% del volumen de negocio, según la infracción cometida y el tamaño de la empresa.

Lista de usos prohibidos de la inteligencia artificial 

  • Sistemas de categorización biométrica en espacios públicos: prohíbe el uso de sistemas de IA para la identificación biométrica a distancia en espacios públicos, con excepciones limitadas y reguladas.
  • Sistemas que explotan vulnerabilidades de menores o personas con discapacidad: prohíbe los sistemas de IA que explotan las vulnerabilidades de menores o personas con discapacidades, para distorsionar su comportamiento de manera que pueda causarles daño físico o psicológico.
  • Sistemas de puntuación social: prohíbe los sistemas de IA que evalúan o clasifican a las personas según su comportamiento social o personalidad.
  • Sistemas que manipulan el comportamiento humano: prohíbe los sistemas de IA diseñados para manipular el comportamiento humano para eludir su libre albedrío.
  • Sistemas de categorización biométrica que utilizan características sensibles: por ejemplo, creencias políticas, religiosas, filosóficas, orientación sexual o raza.
  • Sistemas de reconocimiento facial: prohíbe la extracción no dirigida de imágenes faciales de Internet o imágenes de CCTV para crear bases de datos de reconocimiento facial.
  • Sistemas de reconocimiento emocional: prohíbe el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas.

Excepciones en el uso de sistemas de identificación biométrica

Los negociadores acordaron una serie de salvaguardias y excepciones estrechas para el uso de sistemas de identificación biométrica (RBI) en espacios de acceso público con fines policiales, sujetos a autorización judicial previa y para listas de delitos estrictamente definidas.

“La RBI ‘post-remota’ se utilizaría estrictamente en la búsqueda selectiva de una persona condenada o sospechosa de haber cometido un delito grave”, dice la norma.

La RBI ‘en tiempo real’ cumpliría con condiciones estrictas y su uso estaría limitado en tiempo y ubicación, para los fines de:

  • Búsquedas selectivas de víctimas (secuestro, trata, explotación sexual)
  • Prevención de una amenaza terrorista específica y presente
  • Localización o identificación de una persona sospechosa de haber cometido uno de los delitos específicos mencionados en el reglamento (por ejemplo, terrorismo, trata, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en una organización criminal, delitos medioambientales)

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento