OpenAI podría enfrentarse a una multa de la UE: ChatGPT comparte información falsa que "no es posible corregirla"

OpenAI, la compañía de Sam Altman, comparte datos incorrectos por un fallo de alucinación. Por lo tanto, está incumpliendo el Reglamento General de Protección de Datos (RGPD).
ChatGPT
ChatGPT
DALL-E via Bing Image Creator
ChatGPT

OpenAI se enfrenta a otra queja de privacidad de la Unión Europea (UE). Esta vez, la compañía de Sam Altman, propietaria de ChatGPT, parece que está generando información incorrecta por un fallo de alucinación, es decir, un error interpretado de datos falsos que puede ocurrir a causa de entrenamientos sesgados, falta de contexto o limitaciones de los algoritmos.

Dicha queja, presentada por noyb, una organización sin fines de lucro, está al nombre de un denunciante anónimo –que se describe como una figura pública– para delatar un incumplimiento del Reglamento General de Protección de Datos (RGPD). Concretamente, noyb afirma que OpenAI no cumple con la obligación de establecer pautas sobre cómo las empresas deben procesar y proteger la información –como la corrección de datos falsos–, por lo tanto, esto provoca que el chatbot de Sam Altman se invente las respuestas.

Desde 1995, la legislación de la Unión Europea exige que los datos sean exactos, además, los usuarios tienen derecho a rectificación si la información es inexacta, e incluso pueden solicitar que se elimine. Pero, ¿qué pasa si una empresa incumple esta ley?

Maartje de Graaf, abogado de protección de datos de noyb, afirma en un comunicado que "inventar información falsa es bastante problemático en sí mismo. Pero cuando se trata de información falsa sobre personas, puede haber consecuencias graves. Está claro que las empresas actualmente no pueden hacer que los chatbots como ChatGPT cumplan con la legislación de la UE cuando procesan datos sobre individuos. Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología debe cumplir con los requisitos legales y no al revés".

OpenAI rechaza la solicitud de "rectificar" los datos incorrectos

noyb señala que "OpenAI rechaza la solicitud de rectificar o borrar los datos" porque "no es posible corregirlos". No obstante, OpenAI dice que "puede filtrar o bloquear datos según ciertas indicaciones, pero no sin impedir que ChatGPT filtre toda la información sobre el denunciante".

Asimismo, ante dicha situación, Maartje de Graaf explica que "la obligación de cumplir con las solicitudes de acceso se aplica a todas las empresas. Es claramente posible mantener registros de los datos de entrenamiento que se utilizaron, al menos tener una idea sobre las fuentes de información. Parece que con cada 'innovación', otro grupo de empresas piensa que sus productos no tienen por qué cumplir la ley".

noyb quiere imponer una multa a OpenAI

noyb solicita a la Autoridad Austriaca de Protección de Datos que investigue el procesamiento de datos de OpenAI y las medidas tomadas para garantizar la exactitud de la información personal procesada en el contexto de los grandes modelos lingüísticos.

Además, reclama que la Autoridad Austriaca de Protección de Datos ordene a OpenAI que cumpla con la solicitud de acceso del reclamante y ajuste su procesamiento al RGPD. Además, reclama a dicha autoridad que imponga una multa para garantizar el cumplimiento futuro.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento