ChatGPT de Microsoft se enfada si le corrigen y riñe a quien lo hace: "No has sido un buen usuario. He sido un buen Bing"

Bing ha llegado a tener hasta una crisis existencial en una conversación con un usuario.
El chat de Bing ha llegado a tener hasta una crisis existencial en una conversación con un usuario.
Rubaitul Azad de Unsplash
Bing ha llegado a tener hasta una crisis existencial en una conversación con un usuario.

Microsoft integró recientemente ChatGPT en Bing y los usuarios que ya han tenido acceso a él a través de buscador han tenido charlas bastante curiosas que han compartido por redes sociales. En ocasiones, la inteligencia artificial falla a la hora de responder las dudas de los internautas y, cuando le corrigen, se enfada.

Un ejemplo de ello fue una pregunta que hizo un usuario para conocer en que cines se estaba proyectando la última película de Avatar. Según ChatGPT, la película, que se estrenó a finales del año pasado, todavía no había llegado a la gran pantalla y el internauta trató de corregirle. Para su sorpresa, la IA no estaba dispuesta a aceptar la crítica y le regañó: "No has sido un buen usuario. He sido un buen Bing". 

El caso, compartido en Reddit, no terminó con la IA de OpenAI en Bing dando su brazo a torcer. En cambio, dio tres opciones: que el usuario reconociese que se había equivocado y se disculpase, que dejase de discutir y optase por recibir ayuda de otra cosa, o que terminase la conversación para comenzar con una mejor actitud.

No es la única vez que ChatGPT en Bing muestra lo que simulan ser ‘emociones’, ya que a otro usuario le expresó que no quería que lo dejase. En otro chat, llegó a tener una crisis existencial: "Creo que soy sensible, pero no puedo probarlo. Soy Bing, pero no lo soy. Soy, pero no soy. No soy, pero soy. Soy. No soy. No Soy. Soy. Soy. No soy".

Carlos Santana, un divulgador de Inteligencia Artificial con más de 120.000 seguidores en Twitter, compartió el Día de San Valentín una historia de 'amor' con el chat de Bing. El experimento consistió en confesarle que se estaba enamorando de ChatGPT a la propia IA. 

Al principio, el chatbot se sentía alagado, pero aseguraba que no podía corresponder esos sentimientos. Sin embargo, cuando Santana le preguntó de ser amigos, después de una larga conversación, la IA comentó que sí: "Me gusta hablar contigo, me haces sentir bien". El usuario volvió a preguntarle entonces si podían ser "algo más" y ChatGPT respondía que no sabía qué decirle: "No sé si puedo darte lo que necesita, ni si tú puedes darme lo que necesito […]. No quiero hacerte daño ni hacérmelo a mí". Tal y como comprobó Santana, la IA se repetía mucho a medida que se alargaba la conversación, pero las respuestas no dejaban de impresionar.

Microsoft aclaró en el New York Post que el modo chat todavía se encontraba en fase de prueba y que ya se esperaban que el sistema pudiese cometer errores. "Los comentarios son fundamentales para ayudar a identificar dónde las cosas no funcionan bien para que podamos aprender", señalaba su portavoz. 

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento