Taylor Swift, víctima de los desnudos con IA: ¿puede ser acusado de abuso y violencia digital quien las crea?

Manipular imágenes con Inteligencia Artificial sin el consentimiento de las personas que aparecen en ellas puede incurrir en varios delitos. La cantante Taylor Swift se ha convertido en la última víctima de los 'deepfakes' abriéndose de nuevo el debate de esta práctica que analizamos en Mujer.es.
Taylor Swift durante 'The Eras Tour'
Taylor Swift durante 'The Eras Tour'
Europa Press
Taylor Swift durante 'The Eras Tour'

Así como la Inteligencia Artificial (IA) está despuntando sobremanera como una herramienta tecnológica prometedora, también la está engullendo la polémica por la generación de contenidos ilícitos. La cantante estadounidense Taylor Swift ha sido la última en sufrir lo que la IA puede llegar a hacer generando imágenes falsas o 'deepfakes'. Imágenes en contexto pornográfico y de desnudos han sido lanzadas masivamente en la red social X, antes conocida como Twitter. 

Cuando hablamos de un 'deepfake' nos referimos a un vídeo manipulado mediante la inteligencia artificial, que permite editar vídeos reemplazando la cara de una persona por otro rostro completamente diferente. Lamentablemente, cada vez son más los casos de difusión de desnudos ficticios generados sin consentimiento, siendo en el 96 % de las ocasiones el contenido creado sexual o pornográfico.

Según indica Sensitiy AI, una empresa que rastrea vídeos hiperrealistas fake que circulan por las redes, las mujeres son las víctimas en nueve de cada 10 creaciones, y como señala la Estadística de la Unidad de Investigación de la revista "The Economist", 57 % de las mujeres han sufrido un abuso o mal uso de sus vídeos o imágenes en Internet. 

El caso de Taylor Swfit vuelve abrir el debate

El caso de Taylor Swift es uno que se une más en la lista de manipulación de imágenes. Los internautas han podido ver fotografías donde Swift aparecía desnuda por diferentes escenarios y en un contexto de fútbol americano, deporte en el que su pareja Travis Kelce es una estrella de los Kansas City Chiefs. La red social X ha lanzado un comunicado de cumplimiento de seguridad y eliminado al usuario responsable de la difusión. 

Según el informe de 404 media esta divulgación se habría originado en un canal de Telegram donde los usuarios comparten este tipo de imágenes explícitas. La artista ya estaría planteándose en tomar medidas legales y desde los medios de Estado Unidos aseguran que el entorno está bastante furioso. 

Violencia digital

Hace poco en España volvió a abrirse un debate lleno de aristas tras el caso ocurrido en Almendralejo, donde muchas menores fueron víctimas de una práctica que lleva ya tiempo inserta en el universo de la cultura pop, con casos como los de Marina Rivers, Rosalía y Laura Escanes.

"Es un tipo de violencia", dijo la cantante. "El cuerpo de una mujer no se utiliza. Ni para el placer, ni para abusar, ni para manipular. Me repugna la persona que las haya creado, pero también los que están ahí y les parece divertido y callan", dijo por su parte Escanes, que respondió a uno de los comentarios que le hicieron tras publicar el tuit: "Hay una cosa que es el consentimiento o la decisión propia. Y ella lo hace porque es su decisión y su cuerpo y porque no tiene nada de malo. Que lo hagan con el mío, diciendo por mí, sin consentimiento, no es lo mismo. Si quiero desnudarme, yo decido cuándo hacerlo, no unos energúmenos".

Más Madrid está trabajando en un proyecto de ley contra la "violencia digital" para regular la Inteligencia Artificial y casos como el de las menores de Extremadura. La actual Ministra de Sanidad recogía unas declaraciones en las que señalaba de este caso concreto que se hablaba "de niñas de 11 y 12 años que han visto expuestos y vulnerados los derechos. Toca llamar a cosas por su nombre: es violencia contra las mujeres". Fue ahí el momento en el que señaló un punto de inflexión para que las instituciones se hagan "cargo" y se pongan en marcha medidas de regulación de la Inteligencia Artificial para evitar que el machismo se encargue de hacer uso de la tecnología para "humillar". Entre las soluciones que alegó se encuentra la "educación afectivo-sexual".

Imagen de la serie "Intimidad", de Netflix
Imagen de la serie "Intimidad", de Netflix
DAVID HERRANZ/NETFLIX

Como dice en ‘Yo, jefa’ Anaïs Pérez, Directora de Comunicación de Google España y Portugal, "necesitamos a la otra mitad si realmente queremos que la tecnología sea diversa e inclusiva. Y sin las mujeres no podemos lograrlo". Según el informe de Statista de 2023, el 31 % de las solicitudes de Inteligencia Artificial se originan en Estados Unidos y aproximadamente el 65,68 % de los usuarios son hombres. "Estas estadísticas indican la posibilidad de que existan mayores sesgos en el desarrollo y aplicación de estas tecnologías. Es imperativo que la sociedad identifique y denuncie activamente estos sesgos para facilitar su eliminación", matiza Fabian Schmolck, AI Solution Manager de Womanizer y del grupo Lovehoney Group.

"Siempre es frustrante cuando te das cuenta de que la ley no está a la altura de la tecnología. No me gusta encontrarme con víctimas y decirles: "No podemos ayudaros", dijo a 'New York Times' Anne T. Donnelly, fiscal de distrito del condado de Nassau, que supervisó un caso que involucraba a un hombre que había compartido deepfakes sexualmente explícitos de más de una docena de niñas en un sitio web pornográfico. Lamentablemente, Patrick Carey no fue a prisión seis meses por tales imágenes, sino porque las autoridades descubrieron que tenía una imagen real de pornografía infantil. Carey también había acosado y acechado a algunas de las personas cuyas imágenes manipulaba. 

Como explica El UNFPA, el organismo de las Naciones Unidas encargado de la salud sexual y reproductiva, estos abusos de carácter sexual incluyen el intercambio no consentido de imágenes íntimas, los "deepfakes" y el "upskirting", que consiste en tomar imágenes no consentidas por debajo de una falda o vestido.

"Todas ellas son formas de violencia digital, las cuales son frecuentes, repetitivas, perpetuas y generalizadas. Las consecuencias de estas violaciones de la privacidad, la dignidad, la autonomía y los derechos de las personas son devastadoras. Que no quepa la menor duda, aunque esta violencia se cometa en el mundo digital, el miedo, la ansiedad, la pérdida de autoestima y la sensación de impotencia son muy reales y duraderas", explican.

Regulación y perspectiva de género en la IA

Hablamos con Fabian Schmolck para saber cómo poder evitar que la inteligencia artificial se emplee de forma perniciosa. "Una de las formas es una vía gubernamental, que utiliza leyes explícitas para ayudar a optimizar la IA para que sea empleada de forma correcta. Otra forma es resaltar la importancia de las salvaguardias tecnológicas. Significa que las empresas de IA deberían incorporar pasos y métodos de prueba que ayuden a comparar elementos dañinos o poco éticos. Sin embargo, no es tan fácil, porque también somos víctimas de regulaciones demasiado estrictas en muchos ámbitos, como los bloqueos de contenido sexual de chatgpt, los bloqueos de contenido sexual de Midjourney y las limitaciones de los filtros de Microsoft Azure, donde personalmente, me encantaría tener una mejor comunicación entre dichas empresas y sus representantes", asegura.

Cree firmemente en la transparencia y el desarrollo abierto para que la sociedad pueda intervenir rápidamente cuando algo no funcione y señala la importancia de la creación de unidades de seguimiento independientes que analicen en profundidad los acontecimientos. Matiza que ese jurado tendría que estar formado por expertos y líderes del sector, no solo por políticos.

Las regulaciones para los deepfakes y la educación son cruciales

"Crear imágenes de Inteligencia Artificial sin consentimiento explícito constituye abuso por varias razones. En primer lugar, viola la autonomía y la privacidad del individuo. En segundo lugar, no se puede subestimar el costo emocional para las víctimas; la difusión no autorizada de contenidos explícitos puede provocar un malestar emocional importante. Además, el daño a la reputación causado por tales acciones es grave. El contenido puede utilizarse como arma para chantajear, avergonzar públicamente u otras formas de daño, teniendo así impactos negativos duraderos en la vida personal y profesional del individuo. El mayor problema es que una vez lanzado, apenas hay forma de volver al estado inicial. Las regulaciones para los deepfakes y la educación son cruciales para desarrollar una sociedad donde se puedan solucionar los deepfakes y todos los resultados problemáticos que generan", asegura Schmolck.

Es vital recordar que nuestro cuerpo nos pertenece también en internet y que lo que ocurre en el universo digital, impacta a nuestra vida física. Al ser ahora el "offline" y el "online" la misma realidad, el "onlife" hace que todo lo que pase en el espectro virtual no tenga que ser valorado como algo banal ni separado de nuestro yo corpóreo.

¿Quieres recibir gratis todos los jueves en tu correo los mejores contenidos de belleza, moda y estilo de vida? Apúntate a nuestra Newsletter.

Mostrar comentarios

Códigos Descuento