Cómo cuidarnos de la Inteligencia Artificial: los cuatro niveles de riesgo que impondrá la Unión Europea para limitar a la IA

  • La UE podría tener en vigor en 2025 una legislación específica para el problema de la IA.
El mundo ha entrado en una fase en la que la inteligencia artifical será epicentro de casi todas nuestras actividades diarias.
La UE podría contar con una legislación específica para el problema de la IA en 2025.
PANDA
El mundo ha entrado en una fase en la que la inteligencia artifical será epicentro de casi todas nuestras actividades diarias.

La de la Inteligencia Artificial (IA) es la tercera ola de la digitalización. Y empieza parecer un abismo. Se estima que puede impulsar el crecimiento de la actividad económica europea en torno al 20% para 2030. Pero, "mientras crea una gran oportunidad para Europa, también implica ciertos riesgos sobre los que los legisladores son cada vez más conscientes". Es decir, puede incrementar el bienestar humano o causarle daño.

El entrecomilllado es del informe que un grupo de alto nivel de expertos en IA le presentó a la Comisión Europea en 2021. Lo elevaron después de que en abril de ese año la CE presentara su propuesta para promulgar una Ley de Inteligencia Artificial. Su propósito era garantizar el objetivo de conseguir beneficios para toda la sociedad, respetando la privacidad de los datos y protegiéndose frente a previsibles errores y ataques.

Han pasado dos años y no parece que los europeos hayamos hecho los deberes. La realidad ha ido más deprisa que los legisladores. Así, ChatGPT ha pasado a la velocidad del rayo y no estábamos preparados. Por eso, Elon Musk y otros expertos han firmado una petición para que las empresas con modelos de IA muy avanzados paren durante 6 meses y se pongan de acuerdo en qué protocolos de seguridad deben tener en cuenta. Luego, han dicho lo mismo la ONU y la Unesco

ChatGPT se ha convertido en la aplicación de consumo de más rápido crecimiento de la historia

Y por eso Italia ha dispuesto el bloqueo temporal "con efecto inmediato" de esta herramienta por no respetar la ley de protección de datos. Alemania y Francia están pensando en hacer lo mismo. ChatGPT se ha convertido en la aplicación de consumo de más rápido crecimiento de la historia, según un estudio de UBS con datos de la empresa de análisis Similarweb.

Ahora sí hay prisa. Bruselas quiere aprobar ya su Ley de Inteligencia Artificial. Debería ser votada en sesión plenaria en abril en el Parlamento Europeo, dos años después de su presentación por la CE.

Entrada en vigor, 2025

El comisario europeo de Industria y Mercado Interior, Thierry Breton, espera que el Europarlamento vote y apruebe este mismo mes la propuesta de regulación, para que así pueda ser adoptada lo antes posible. En realidad, el calendario dice que se votará en mayo. Si todo avanza, el reglamento podría entrar en vigor en 2025 ya que se aplica directamente a los Veintisiete, sin necesidad de trasponerlo.

Las nuevas normas sobre inteligencia artificial tendrán como objetivo abordar las preocupaciones sobre los riesgos de ChatGPT y garantizar que los europeos puedan confiar en esta tecnología de inteligencia artificial. Según el comisario, los riesgos planteados por ChatGPT subrayan la necesidad urgente de normas sobre IA.

Necesitamos un marco regulador sólido que garantice una IA fiable basada en datos de alta calidad"

"Como demuestra ChatGPT, las soluciones de IA pueden ofrecer grandes oportunidades para las empresas y los ciudadanos, pero también pueden plantear riesgos. Por eso necesitamos un marco regulador sólido que garantice una IA fiable basada en datos de alta calidad", dijo a Reuters en febrero.

Los cuatro riesgos de las IA

Los europeos serían así "los primeros" en contar con una legislación específica para el problema de la IA. La propuesta de reglamento que deberán votar los europarlamentarios presenta cuatro niveles de protección: "lo que está prohibido, lo que es de alto riesgo, lo que es de riesgo medio y lo que está autorizado", en palabras de Breton en Radio France.

Prohibidos

Serán "inaceptables, es decir, totalmente contrarios a los derechos fundamentales de la Unión Europea. Se han identificado cuatro sistemas principales que estarán prohibidos:

  • Explotación de personas vulnerables. Se prohibirían los sistemas de IA que exploten "posibles vulnerabilidades debidas a la edad o a la discapacidad física o mental de un grupo de personas".
  • Identificación biométrica a distancia. Este tipo de sistemas destinados a zonas de acceso público con fines policiales estarían prohibidos, con excepciones.
  • Sistemas de puntuación social. También estará prohibido comercializar, encargar o utilizar, por las autoridades públicas o en su nombre, sistemas de IA destinados a evaluar o establecer una clasificación de la fiabilidad de las personas físicas y que den lugar a un "trato perjudicial o desfavorable". Es decir, lo que hace China para el control de la población.
  • Técnicas subliminales. Esta categoría incluye los sistemas de IA que utilizan técnicas subliminales que podrían resultar perjudiciales para la salud física o psicológica de las personas.

Riesgo alto

Se refiere a los sistemas que tendrán que ser evaluados por las agencias nacionales antes de poder ser implantados. Se refiere a los algoritmos utilizados por algunas aplicaciones médicas o las de escaneo de CV dirigidas a la evaluación de los solicitantes de una oferta de empleo. Según la propuesta de Bruselas, deberán estar sujetas a determinados requisitos legales.

Riesgo medio

Esta categoría incluye las IA con obligaciones específicas de transparencia. En este caso, no habría evaluación previa, "el operador podría poner en marcha su sistema directamente, pero tiene una obligación de transparencia, tiene que explicar cómo funciona el sistema", ha aclarado en Radio France la doctora en Derecho Nathalie Devillier, experta de la Comisión Europea en temas de IA.

Riesgo mínimo

Será los sistemas autorizados. Todos los objetos cotidianos conectados en el hogar, como lavadoras, frigoríficos o relojes conectados, no requerirían ninguna autorización específica ni transparencia.

Ponerle una etiqueta a la IA

Bruselas pretende que los contenidos generados a través de IA lleven una advertencia específica, una especie de etiqueta. "En todo lo que sea generado por inteligencias artificiales, ya sean textos o imágenes, habrá una obligación de notificar que ha sido creado por una inteligencia artificial", aclaró Thierry Breton, en Franceinfo.

Esa "etiqueta" se aplicaría tanto para la categoría de riesgo alto, la de obligaciones específicas de transparencia y para los deep fake (tecnologías que permiten editar vídeos o fotos falsos de personas que parecen reales). Estas herramientas deberán decirle al usuario que está interactuando con un algoritmo o sistema de IA.

Habrá más seguridad, pero más restricciones. Esto último preocupa a la industria. Que una herramienta quede clasificada como de "alto riesgo" conduciría a requisitos más estrictos y costes más altos, explica Xataka. Una encuesta reciente sugería que el 51% de los desarrolladores espera una desaceleración de sus actividades como resultado de la nueva Ley de IA de la UE.

La Unión Europea también tiene previsto invertir 10.000 millones de euros de su presupuesto en IA entre 2014 y 2027. Además, su plan de IA 2021 aspira a gastar 20.000 millones de euros al año durante diez años, en inversión pública y privada.

Mostrar comentarios

Códigos Descuento