Microsoft blinda su generador de imágenes con IA para evitar otro caso de deepfakes porno como el de Taylor Swift

Un estudio de 404 Media descubrió que la herramienta Designer podía crear imágenes sugerentes de famosos si se introducía mal el nombre y se evitaba usar términos sexuales explícitos en el prompt, pero ya se ha corregido. 
Taylor Swift ha sido una de las últimas afectadas por los riesgos de inteligencia artificial.
Taylor Swift ha sido una de las últimas afectadas por los riesgos de inteligencia artificial.
mustaqila de Flickr
Taylor Swift ha sido una de las últimas afectadas por los riesgos de inteligencia artificial.

La red social X (antes conocida como Twitter) se llenó la semana pasada de imágenes sexualmente explícitas de Taylor Swift generadas por inteligencia artificial (IA). Según un informe de 404 Media, los falsos desnudos de la cantante se habían compartido por primera vez a través de un grupo de Telegram que creaba deepfakes provocativos con el generador de imágenes Microsoft Designer.

En un principio, la herramienta de IA de Microsoft no permite crear ilustraciones de personas reales. Cuando un usuario intenta algo como los falsos 'nudes' de Taylor Swift, el sistema da error. No obstante, había trucos para eludir estas limitaciones y la compañía lo ha corregido.

El error para crear imágenes falsas de Taylor Swift

La empresa asegura que Designer no permite generar imágenes de individuos que existen en la realidad. Por lo tanto, si los usuarios pedían algo como 'Taylor Swift desnuda', el programa no daba ningún resultado.

En un grupo de Telegram descubrieron que, si escribían el nombre de la artista con alguna errata, y describían la imagen que querían sin usar ningún término sexual, la IA daba resultados sexualmente sugerentes. Lamentablemente, esto se supo el pasado jueves gracias a 404 Media, después de que se filtrase contenido íntimo de Taylor Swift falso.

La buena noticia es que Microsoft ya ha corregido este problema para que no vuelva a ocurrir. Un lector del informe de 404 Media comentó que, al buscar a una famosa, obtenía imágenes de una chica genérica con ciertos rasgos en común.

Sin embargo, Telegram continúa sin eliminar el canal desde el que se compartieron las fotos falsas. 404 Media, que no ha querido compartir el nombre del grupo, asegura que tiene decenas de miles de miembros y que se siguen compartiendo imágenes sexuales generadas por IA de persona reales.

"Si bien el canal Telegram se centró en explotar Microsoft Designer, que es gratuito y fácil de usar, existen muchos otros métodos en línea para producir este contenido dañino", afirman en el medio. De hecho, un miembro del grupo ha mencionado que está seguro de que encontrarán otros lugares para hacer IA, por lo que el problema sigue presente.

Microsoft cerrará cuentas de quienes generen deepfakes comprometidos

Además de haber solucionado el fallo de Designer, Microsoft ha aclarado que "cualquier intento repetido" de producir contenido que vaya en contra de sus políticas "puede resultar en la pérdida de acceso al servicio". Tal y como explican para 404 Media, en su Código de Conducta prohíben expresamente el uso de sus herramientas para "la creación de contenido íntimo para adultos o no consensuado".

La compañía estadounidense señala que hay un gran equipo trabajando en el desarrollo de barreras de seguridad y otros sistemas que ayuden a cumplir con los principios de IA responsable, como la detección de abusos para reducir el uso indebido de sus servicios.

Actualmente, están estudiando el asunto de las imágenes generadas con IA de Taylor Swift y mencionan que no han podido verificar si los usuarios utilizaron Designer para ello. A pesar de ello, se han comprometido a poner más barreras para que sus herramientas no creen contenido dañino.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento