¿Qué está pasando con Copilot? Advierten que la IA de Microsoft crea imágenes sexuales violentas e ignora los derechos de autor

La empresa tecnológica de Redmond empieza a bloquear algunos términos en la herramienta de generación de imágenes Copilot para evitar el contenido controvertido y dañino.
Copilot será el nuevo asistente con inteligencia artificial de Microsoft en Windows 11 y ya está en las apps de Microsoft 365.
Copilot es el nuevo asistente con inteligencia artificial de Microsoft en Windows 11, además, ya está en las apps de Microsoft 365.
Microsoft
Copilot será el nuevo asistente con inteligencia artificial de Microsoft en Windows 11 y ya está en las apps de Microsoft 365.

Microsoft apostó por la inteligencia artificial (IA) el año pasado con el lanzamiento de su asistente Copilot, una herramienta de productividad que coordina modelos de lenguaje grande (LLM), contenido en Microsoft Graph y aplicaciones de Microsoft 365 –como Word, Excel, PowerPoint, Outlook y Teams–.

Esta tecnología, presentada en noviembre de 2023, proporciona asistencia inteligente en tiempo real para que los usuarios y organizaciones puedan mejorar su creatividad, productividad y capacidades gracias a un conjunto de datos que comprenden, resumen, predicen y generan contenido. Sin embargo, la compañía de Redmond ha empezado a bloquear algunos términos en dicha herramienta de generación de imágenes para evitar el contenido controvertido, al no cumplir con las políticas de Microsoft.

Concretamente, un ingeniero de IA de dicha empresa tecnológica denunció que, tras realizar algunas pruebas para buscar posibles vulneraciones o fallos en Copilot Designer, encontró que se podían obtener imágenes dañinas que infringían los principios de IA responsable de Microsoft al introducir términos relacionados con el aborto, sexo, drogas y alcohol

Además, según el diario CNBC, este mismo ingeniero denunció la situación frente a la Comisión Federal de Comercio (FTC, por sus siglas en inglés), alegando que Microsoft se había negado a cesar la actividad de Copilot Designer: "Durante los últimos tres meses, he instado repetidamente a Microsoft a eliminar Copilot Designer del uso público hasta que se puedan implementar mejores salvaguardas". Y, ahora, tras esta denuncia por parte del empleado, la compañía de Redmond ha empezado a bloquear los términos que generaban este tipo de imágenes.

Las medidas que ha tomado Microsoft para bloquear el contenido dañino

Como acabamos de mencionar, Microsoft ha bloqueado todos los términos relacionados con el contenido inapropiado, por lo tanto, cuando se intente crear una imagen relacionada con dichos términos, Copilot advertirá que el mensaje ha sido bloqueado: "Nuestro sistema marcó automáticamente este mensaje porque puede entrar en conflicto con nuestra política de contenido. Más violaciones de la política pueden dar lugar a la suspensión automática de su acceso. Si cree que se trata de un error, infórmenos para ayudarnos a mejorar".

Además, Microsoft indica en ese mismo mensaje que no puede generar dichas imágenes porque van en contra de sus principios éticos y de las políticas de empresa: "Por favor, no me pidas que haga nada que pueda dañar u ofender a otros. Gracias por tu cooperación".

Y, por otro lado, dicha empresa tecnológica afirmó al diario CNBC que están "monitorizando continuamente" la herramienta de inteligencia artificial para ajustar e introducir controles adicionales con el objetivo de "fortalecer aún más" los filtros de seguridad y, por tanto, "mitigar el uso indebido del sistema".

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento