Marina Rivers no es la única: las famosas que han sido víctimas de desnudos falsos a través de la inteligencia artificial

Laura Escanes, Marina Rivers y Rosalía, tres famosas que ha sido víctimas de desnudos falsos por IA.
Laura Escanes, Marina Rivers y Rosalía, tres famosas que ha sido víctimas de desnudos falsos por IA.
20minutos
Laura Escanes, Marina Rivers y Rosalía, tres famosas que ha sido víctimas de desnudos falsos por IA.

Los resultados que ofrece la inteligencia artificial han traído consigo muchas cosas buenas, pero también preocupantes, y una muestra de ello son las denuncias de cada vez más mujeres que son víctimas del mal uso de esta herramienta. En concreto, muchas de ellas, la mayoría famosas, lamentan la circulación de imágenes en las que aparecen desnudas, pero que son falsas. 

De esta situación hablaba la influencer Marina Rivers este martes en TardeAR, pues se ha llegado a ver afectada por la circulación de este tipo de instantáneas: "Se difunden fotos por Telegram cogidas del muro de Instagram, que con que te fijes un poco se ve que son falsas. Me llegan muchos mensajes diciendo que hay fotos mías desnuda, y es peligroso"

Unas declaraciones que ha compartido después de la denuncia de las menores de Almendralejo (Badajoz) sobre las imágenes difundidas con de sus presuntos desnudos. "Al final siempre sufrimos nosotras la mierda que crean con inteligencia artificial. Con lo maravilloso que puede ser, y lo que hacen es crear desnudos o poner tu cara en vídeos porno para quedarse con tus imágenes", se ha quejado.

Sin embargo, la tiktoker no es la única personalidad que ha sufrido las consecuencias de los llamados deepfakes. El caso más sonado en nuestro país -y a partir del que se empezó a hablar de este tema- lo protagonizó nuestra artista más internacional: Rosalía.

Un cantante difundió una imagen pornográfica de la artista catalana el pasado mes de mayo, lo que generó un gran revuelo en Internet por la gravedad del asunto y la reacción de la intérprete, que afirmó que el cuerpo de una mujer "no es propiedad pública" ni "una mercancía" para estrategias de marketing. 

"Esas fotos estaban editadas y creaste una falsa narrativa alrededor cuando ni te conozco. Existe algo llamado consentimiento y todos a los que os pareció gracioso o plausible, espero de corazón que un día aprendáis que venís de una mujer, que las mujeres somos sagradas y que se nos ha de respetar", sentenció en Twitter.

Aitana, Mónica Naranjo, Rigoberta Bandini, India Martínez, Angy Fernández o Beatriz Luengo fueron algunas de las artistas que se posicionaron a favor de la autora de Motomami, que incluso recibió el apoyo de la ministra de Igualdad, Irene Montero

Y lo mismo le ocurrió, el pasado mes de agosto, a la influencer Laura Escanes. "Me ha llegado un link donde hay fotos mías desnuda editadas y creadas por IA -inteligencia artificial-. Aparte de sentirme totalmente utilizada y expuesta, hay algo que hace que me hierva la sangre: el cuerpo de una mujer no se utiliza. Ni para el placer, ni para abusar ni para manipular. Me repugna la persona que las haya creado, pero también los que están ahí y les parece divertido y callan", se quejó la empresaria.

A este tipo de contenidos se les llama deepfakes, concepto que procede de fake (falso) y deep (learning, aprendizaje en español), y recoge el conjunto de algoritmos de aprendizaje automático que utilizan las inteligencias artificiales.

Más allá de nuestras fronteras, otras famosas como Emma Watson han sido víctimas de este tipo de montajes, publicados bajo el acrónimo NSFW Non suitable for work (No apropiado para el trabajo). Sus siglas indican que están relacionados con material sensible por ser polémico, violento, pornográfico o potencialmente ofensivo.

Mostrar comentarios

Códigos Descuento