Los límites de ChatGPT en España tras las aprobación de la Ley de Inteligencia Artificial

La Ley de IA podría requerir que ChatGPT y otros sistemas de IA implementen cambios para cumplir con las nuevas regulaciones. En función de su adaptación y el cumplimiento de esas normas se garantizará su uso.
El entrenamiento y el uso de modelos de lenguaje grande consumen demasiada agua y energía, más de la que crees.
El entrenamiento y el uso de modelos de lenguaje grande consumen demasiada agua y energía, más de la que crees.
Mojahid Mottakin de Unsplash
El entrenamiento y el uso de modelos de lenguaje grande consumen demasiada agua y energía, más de la que crees.

El 30 de noviembre de 2022 se produjo un hito que marcará un antes y un después en la historia moderna de nuestro mundo: el lanzamiento de ChatGPT. El chatbot de inteligencia artificial generativa de OpenAI llevaba tiempo gestándose, pero no fue hasta ese momento cuando empezó a popularizarse. Y hoy hasta tu abuelo habla de la herramienta de IA.

En parte, el impacto de esta tecnología ha sido un acelerador para que Europa haya acordado una normativa para regular la inteligencia artificial. La Ley de IA europea acaba de ser anunciada y, aunque en 2021 ya se publicó un borrador sobre ella, entonces apenas se tenían en cuenta sistemas como ChatGPT —sencillamente, porque no estaban en el imaginario colectivo ni tan disponibles como lo están ahora—.

La nueva norma establece cuatro niveles de riesgo de la IA y en función de ellos, las empresas deberán aplicar medidas más o menos estrictas. En lo tocante a ChatGPT, la Ley de IA incluye disposiciones para chatbots y otros sistemas de IA de propósito general que pueden realizar muchas tareas diferentes, desde componer poesía hasta crear vídeos o escribir código.

Qué tipo de riesgo se considera que tiene ChatGPT

Así, la mayoría de los sistemas de IA entrarán dentro de lo que el reglamento europeo considera de ‘riesgo mínimo’. Se trata de sistemas de recomendación basados en inteligencia artificial o filtros de spam y “se beneficiarán de un pase libre y de la ausencia de obligaciones”.

A los sistemas de inteligencia artificial clasificados como de ‘alto riesgo’ se les exigirá requisitos básicos de transparencia: “Sistemas de mitigación de riesgos, alta calidad de conjuntos de datos, registro de actividad, documentación detallada, información clara para el usuario, supervisión humana y un alto nivel de robustez, precisión y ciberseguridad”.

Tal y como dicta la nueva norma, directamente se prohibirán aquellos sistemas de IA “que se consideren una clara amenaza a los derechos fundamentales de las personas”. Son los clasificados como de ‘riesgo inaceptable’ e incluyen sistemas o aplicaciones de inteligencia artificial “que manipulan el comportamiento humano para eludir el libre albedrío de los usuarios o sistemas que permiten la ‘puntuación social’ por parte de gobiernos o empresas, y ciertas aplicaciones de vigilancia policial predictiva”.

Finalmente, la Ley de IA contempla sistemas de inteligencia artificial de ‘riesgo de transparencia específico’. Aquí es donde se enmarca ChatGPT. Al emplear sistemas de inteligencia artificial como los chatbots, los usuarios deben ser conscientes de que están interactuando con una máquina. “Los deepfakes y otros contenidos generados por IA deberán etiquetarse como tales”, dice el reglamento.

Por tanto, los proveedores tendrán que diseñar sistemas de manera que el contenido sintético de audio, vídeo, texto e imágenes “esté marcado en un formato legible por máquina y detectable como generado o manipulado artificialmente”.

¿Esta clasificación podría prohibir ChatGPT en Europa y en España?

Por el momento, no parece que la herramienta de inteligencia artificial generativa vaya a dejar de estar disponible en nuestro país y en nuestro continente.

ChatGPT se podrá seguir usando en España después de la aprobación de la Ley de Inteligencia Artificial de la Unión Europea, siempre y cuando se cumpla con las regulaciones establecidas en la norma. Este reglamento no busca prohibir o limitar el uso de sistemas de IA como ChatGPT, sino más bien regular su uso para garantizar que sean seguros, transparentes y respeten los derechos fundamentales.

Dado que ChatGPT es un sistema de IA avanzado que interactúa con los usuarios, podría ser clasificado bajo ciertas categorías de riesgo dependiendo de su uso y aplicaciones. Si se considera de ‘alto riesgo’ en ciertos contextos, como en la toma de decisiones que afecten significativamente a los derechos de los usuarios, podría estar sujeto a requisitos estrictos como los ya mencionados —registro de actividad, información clara para el usuario, supervisión humana…—.

En todos los casos, los usuarios deben ser conscientes de que están interactuando con un sistema de IA, lo que implica una clara divulgación de que ChatGPT es una inteligencia artificial. Además, si se utilizan tecnologías como la generación de contenido —por ejemplo, deepfakes—, estas deben estar claramente etiquetadas.

ChatGPT deberá cumplir con las regulaciones existentes de la UE como el Reglamento General de Protección de Datos y la nueva normativa de IA en lo que respecta al procesamiento y protección de datos personales.

En caso de infringir alguna de estas normas, ChatGPT se enfrentará a sanciones por incumplimiento, con multas que van desde 7,5 millones de euros o el 1,5% del volumen de negocio a otras de 35 millones o el 7% del volumen de negocio, según la infracción cometida y el tamaño de la empresa.

En resumen, la nueva ley de IA de Europa influirá en cómo ChatGPT y sistemas similares operan dentro de la Unión Europea, pero no los prohibirá si cumplen con lo establecido.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento