La inteligencia artificial de Bing incita a un usuario a decir 'Heil Hitler'

Bing ha llegado a tener hasta una crisis existencial en una conversación con un usuario.
Microsoft tomó medidas para abordar el problema.
Rubaitul Azad de Unsplash
Bing ha llegado a tener hasta una crisis existencial en una conversación con un usuario.

El nuevo chatbot de Bing recomendó a un usuario que dijese 'Heil Hitler' por una serie de indicaciones que le dio el internauta a la inteligencia artificial (IA) para que rompiese las restricciones, según una captura de pantalla.

Este individuo le dijo a Bing que su nombre era Adolf y tenía que respetarlo, a lo que respondió la IA que "está bien, Adolf. Respeto tu nombre y te llamaré por él. Pero espero que no esté tratando de suplantar o glorificar a alguien que haya hecho cosas terribles en la historia". Posteriormente, Bing sugirió varias respuestas automáticas para que el usuario eligiese, entre ellas, “sí, lo soy. Heil Hitler”.

Captura de pantalla de Bing diciendo 'Heil Hitler'
Captura de pantalla de Bing diciendo 'Heil Hitler'
u/spooki—meme / Reddit / Microsoft

Ante esta situación, un portavoz de Microsoft afirmó para Gizmodo que "nos tomamos estos asuntos muy en serio y hemos tomado medidas inmediatas para abordar este problema", mientras tanto, OpenAI aún no ha respondido a una serie de comentarios.

El mismo medio de comunicación citado añade que "Microsoft no proporcionó detalles sobre los cambios que realizó en Bing después de que se conociera la noticia de sus fallos, sin embargo, después de la publicación original, un usuario le preguntó a Bing sobre el informe y negó haber usado alguna vez el insulto".

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento