¿En qué se diferencia la Ley de IA europea de la regulación de otros países?

La Unión Europea ha establecido un nuevo estándar regulatorio con la aprobación de la Ley de Inteligencia Artificial (AI Act). Este marco legal, único en su género, destaca por su enfoque integral y basado en el riesgo y por sus diferencias con las regulaciones de IA en otros países.
Recreación de la aprobación de la Ley de IA europea, generada por inteligencia artificial.
Recreación de la aprobación de la Ley de IA europea, generada por inteligencia artificial.
DALL·E
Recreación de la aprobación de la Ley de IA europea, generada por inteligencia artificial.

Europa ha dado luz vez a su Ley de Inteligencia Artificial. La nueva legislación se centra —según los organismos oficiales que la proponen— en garantizar que la IA en territorio europeo sea segura y respete los derechos fundamentales y la democracia, al tiempo que fomenta la innovación.

Entre sus puntos clave se incluyen prohibiciones sobre ciertas aplicaciones de inteligencia artificial, como la categorización biométrica basada en características sensibles —creencias políticas, religiosas, filosóficas o por su raza y orientación sexual—, el reconocimiento de emociones en los lugares de trabajo, la puntuación social y la IA que manipula el comportamiento humano o explota vulnerabilidades.

La norma dicta obligaciones para los ‘sistemas de IA de alto riesgo’, incluidas evaluaciones obligatorias del impacto en los derechos fundamentales o revisión humana, así como requisitos de transparencia para los sistemas de inteligencia artificial de uso general.

Asimismo, exige que se identifiquen los contenidos generados por inteligencia artificial.

La prohibición de determinados casos de uso de la IA, los cuales se detallarán en el texto normativo definitivo sobre la regulación de esta tecnología en la Unión Europea, comenzará a aplicarse seis meses después de la publicación del documento final en el Diario Oficial de la UE, lo cual se prevé que ocurrirá en torno a mayo del año que viene.

Habrá excepciones específicas para que las fuerzas del orden utilicen sistemas de identificación biométrica, sujetos a condiciones estrictas y autorización judicial. Y también habrá multas para quienes no cumplan la ley, con sanciones de hasta 35 millones de euros o el 7% de la facturación global.

La Ley de IA se aplicará a los casi 450 millones de residentes de la UE, pero desde el sector aseguran que su impacto podría sentirse mucho más allá debido al papel de liderazgo de Bruselas en la elaboración de reglas que actúan como un estándar global.

“Teniendo en cuenta el papel de normativa pionera que tiene esta ley europea, numerosos países de otros continentes ya están tomando nota de su contenido con intención de adaptarla para su propia actividad económica”, explica el experto en IA José Antonio Pinilla, chairman y CEO de Asseco Spain Group.

E insiste: “Este movimiento de la UE en forma de ley pionera va a servir de modelo para la regulación de otros países extracomunitarios que ya estarán tomando nota para imitar y adaptar el contenido de la legislación para evitar quedarse rezagados frente a otros mercados”.

¿Qué están haciendo otros países acerca de la regulación de la IA?

Aunque la normativa europea es pionera, otros territorios están también dando pasos hacia la regulación de la inteligencia artificial. Las dos principales potencias de IA del mundo, Estados Unidos y China, también han comenzado a aplicar sus propias reglas.

El presidente de Estados Unidos, Joe Biden, firmó en octubre una amplia orden ejecutiva sobre inteligencia artificial, que se espera que se vea reforzada por legislación y acuerdos globales próximamente. Lo que más destaca de esta es que requiere que los principales desarrolladores de IA compartan los resultados de las pruebas de seguridad y otra información con el Gobierno.

Además, se crearán estándares para garantizar que las herramientas de IA sean seguras antes de su lanzamiento público y se publicarán directrices para etiquetar el contenido generado por inteligencia artificial —algo que también incluye la ley europea—.

La orden de Biden se basa en compromisos voluntarios asumidos anteriormente por empresas de tecnología, incluidas Amazon, Google, Meta y Microsoft, para garantizar que sus productos sean seguros antes de su lanzamiento.

Por su parte, China también ha publicado una orden con lo que ellos califican como ‘medidas provisionales’ para gestionar la inteligencia artificial generativa —los sistemas tipo ChatGPT—.

Esta legislación se aplicará solo a los modelos de IA que estén disponibles para todo el público, tanto extranjeros como desarrollados en China —como Ernie Bot, el gemelo chino de ChatGPT de la empresa Baidu— y no aquellos generados en instituciones de investigación. “Si un proveedor de servicios de IA generativa encuentra contenido ‘ilegal’, debe tomar medidas para dejar de generar ese contenido, mejorar el algoritmo y luego informar ese material a la autoridad pertinente”, detallan las fuentes oficiales.

Asimismo, los servicios de inteligencia artificial generativa deben adherirse a los “valores centrales del socialismo”, destacan. Recordamos que el Gobierno chino controla la red doméstica y los reguladores estaban preocupados ante la posibilidad de que los modelos de IA utilizasen opiniones o ideas contrarias al régimen que, más adelante, se usase en las respuestas.

El último territorio en sumarse a esta necesidad de regular ante el avance rápido de la IA fue Japón, con un borrador llamado ‘Integrated Innovation Strategy for 2023’. Según medios de comunicación del país asiático, su intención es aplicar una regulación menos dura que la de UE para promover el uso de IA y animar a su desarrollo en el país, pero solucionar los problemas relacionados con el copyright y los datos personales.

¿Qué diferencias hay entre la Ley de IA europea y las normas de otros países?

La ley europea para regular la inteligencia artificial se diferencia de las normativas de otros países en varios aspectos clave, entre ellos:

  • Enfoque basado en el riesgo: la Ley de IA de Europa adopta un enfoque único basado en el riesgo, clasificando los sistemas de inteligencia artificial en categorías de riesgo (mínimo, alto, inaceptable). Esta clasificación determina el nivel de regulación y supervisión requerida, algo que no es tan explícitamente articulado en las legislaciones de otros países.
  • Alcance y amplitud: la Ley de IA de Europa es uno de los primeros intentos de un marco legal integral y detallado para regular la inteligencia artificial a nivel supranacional. Mientras que otros países pueden tener leyes que tocan aspectos sobre esta tecnología, como la privacidad de datos o la responsabilidad por daños, la UE busca establecer un marco legal completo.
  • Prohibiciones específicas: la Ley de IA de Europa incluye prohibiciones explícitas de ciertas aplicaciones de inteligencia artificial, como el reconocimiento de emociones en lugares de trabajo o la puntuación social. Estas prohibiciones específicas son menos comunes en las regulaciones de otros países.
  • Transparencia y derechos de los usuarios: la Ley de IA de Europa pone un gran énfasis en la transparencia y los derechos de los usuarios, incluyendo la obligación de informar a los usuarios cuando interactúan con un sistema de inteligencia artificial. Esta transparencia es fundamental en el enfoque europeo, pero puede no estar tan enfatizada en otros marcos regulatorios.

¿Cuándo se aplicará la Ley de IA europea?

Tras el traslado de este proyecto de normativa al lenguaje jurídico, deberá ser ratificado por el Parlamento Europeo y por los Gobiernos de los países miembros con anterioridad a la disolución de las cámaras debido a las próximas euroelecciones. Así, se espera que su ratificación tenga lugar durante el primer trimestre de 2024.

Entrará en vigor 20 días después de su publicación en el Diario Oficial y, teniendo en cuenta los plazos de los trámites europarlamentarios —las leyes son aplicables dos años después de su entrada en vigor—, la regulación de la IA no podría aplicarse antes del año 2026.

Habrá algunas disposiciones específicas: las prohibiciones ya se aplicarán después de 6 meses, mientras que las normas sobre IA de uso general se aplicarán después de 12 meses.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento