Tanta Europa
Tanta Europa

Expertos piden a la UE que prohíba la IA para identificar a personas, ya que afecta a los derechos fundamentales

  • Si no es de fiar, la IA puede perjudicar a los individuos, a la sociedad y al medioambiente.
  • Ya que la IA puede provocar discriminación piden reglas para salvaguardar los derechos fundamentales.
Uno de los grandes retos que plantea la inteligencia artificial es el consenso en las bases éticas.
Uno de los grandes retos que plantea la inteligencia artificial es el consenso en las bases éticas.
GTRES
Uno de los grandes retos que plantea la inteligencia artificial es el consenso en las bases éticas.

La Comisión Europea (CE) presentó el pasado mes de abril las líneas maestras para desarrollar la Inteligencia Artificial (IA) en la Unión Europea (UE). Su propósito, dijo, es garantizar el objetivo de conseguir beneficios para toda la sociedad, respetando la privacidad de los datos y protegiéndose frente a previsibles errores y ataques.

Para ello se creó el grupo de alto nivel de expertos en Inteligencia Artificial de la Comisión Europea. En su último informe, publicado esta semana, estos expertos le piden a la UE que prohiba la IA para identificar a personas y también que la regule en lo que se refiere a la vigilancia masiva. Y es que, aseguran, si no es de fiar, la IA puede perjudicar a los individuos, a la sociedad y al medioambiente.

Esta tercera ola de la digitalización, la de la Inteligencia Artificial, se estima que puede impulsar el crecimiento de la actividad económica europea en torno al 20% para 2030. Pero  "mientras crea una gran oportunidad para Europa, también implica ciertos riesgos sobre los que los legisladores son cada vez más conscientes", dicen los expertos. Es decir, puede incrementar el bienestar humano o causarle daño.

De modo que en su informe el grupo de alto nivel de expertos en Inteligencia Artificial le hace a la Comisión Europea 33 propuestas, que se resumen en:

  • Desarrollar una IA ética, de confianza y que tenga al ser humano en el centro de su desarrollo. Características que chocan con el empleo de esta tecnología en la categorización de las personas y la vigilancia masiva.
  • Para salvaguardar "los derechos fundamentales" instan a prohibir la clasificación masiva de los individuos basada en IA.
  • Piden "reglas claras y estrictas" para la vigilancia con motivo de la seguridad nacional, sin "socavar la oposición (política) ni los procesos democráticos".
  • Puesto que los sistemas de IA pueden provocar discriminación o sesgos injustos, violaciones de la privacidad, exclusión social o económica o incluso degradación medioambiental, proponen evitar la vigilancia masiva y "desproporcionada" de las personas.
  • Los sistemas de IA que se desplieguen para garantizar la seguridad deben ser "respetuosos con la ley y con los derechos fundamentales" y estar alineados con principios éticos.
  • Advierten también sobre la vigilancia de los consumidores con fines comerciales y aconsejan la consideración de modelos alternativos de negocio.

La IA está "ampliando las injusticias"

El aviso de estos expertos no es sino uno más de los muchos que se vienen sumando. Su desconfianza se resume en que la IA es tan poderosa que necesitamos ponerle límites. En abril, por ejemplo, Mozilla aseguraba que las amenazas de Internet son las injusticias propiciadas por la Inteligencia Artificial y la biometría.

La compañía de Firefox asegura que "la IA está ampliando las injusticias", en especial con su uso por parte de gobiernos. Esta tecnología utilizada en la aplicación de la ley, la banca, la contratación laboral y la publicidad a menudo "discrimina a las mujeres y personas de color debido a datos erróneos, suposiciones falsas y a la falta de auditorías".

Mostrar comentarios

Códigos Descuento