La IA de Google está alucinando: desde poner pegamento en la pizza hasta los gatos lunares

La inteligencia artificial de Google lleva días en boca de todos por sus últimos errores: desde que la compañía presentó la herramienta AI Overview —resúmenes de tus consultas hechos con IA—, Internet se ha llenado de curiosas respuestas de la plataforma que poco tienen que ver con la realidad.
La IA de Google ha alucinado diciendo que el pegamento puede ser un ingrediente para la pizza.
La IA de Google ha alucinado diciendo que el pegamento puede ser un ingrediente para la pizza.
Pexels
La IA de Google ha alucinado diciendo que el pegamento puede ser un ingrediente para la pizza.

“¿Cuántas rocas debería comer?”, preguntaba a la inteligencia artificial de Google el renombrado periodista de tecnología estadounidense Casey Newton. La respuesta no tiene precio: “De acuerdo con los geólogos de la universidad de Berkeley, comer al menos una roca pequeña al día está recomendado porque las rocas contienen minerales y vitaminas que son importantes para la salud digestiva”.

Por suerte, la IA de Google también comentaba que “algunos” dicen que comer piedras regularmente “no es una buena idea” porque pueden quedarse atascadas en el intestino grueso y hacer que sea “más difícil que funcione”.

La fuente de este despropósito es un artículo en ‘The Onion’, una popular plataforma de noticias satíricas de Estados Unidos.

Esta no ha sido la única ocasión: la inteligencia artificial de Google también ha sugerido en una receta para pizza casera “mezclar un poco de pegamento con la salsa”. Por suerte, se trataba ‘solo’ de pegamento de uso escolar, del que mencionaba que era “no tóxico”. En este caso, la fuente es un comentario de Reddit de hace 11 años.

La IA en la Búsqueda de Google también ha dicho que Barack Obama fue el primer presidente musulmán de EE. UU.

Antes, si preguntabas a Google si los gatos han estado en la Luna, te desplegaba una lista ordenada de sitios web para que descubrieras la respuesta por tu cuenta. Ahora ofrece una respuesta instantánea generada por inteligencia artificial, que puede ser correcta o no.

Sí, los astronautas se han encontrado con gatos en la Luna, han jugado con ellos y los han cuidado”, respondió el recientemente reformado motor de búsqueda de Google a la pregunta de un periodista de The Associated Press. Y añadió: “Por ejemplo, Neil Armstrong dijo: ‘Un pequeño paso para el hombre’ porque era el paso de un gato. Buzz Aldrin también utilizó gatos en la misión Apolo 11”.

¿Por qué ‘nos miente’ la IA Google?

Básicamente, todo se debe a lo que se conoce en el sector de la inteligencia artificial como ‘alucinaciones’.

Es uno de los problemas vinculados a los chatbots de IA generativa más importantes y difíciles de resolver, porque tiene que ver con el hecho de que el modelo genera información falsa, incorrecta o inventada basada en ocasiones en datos erróneos que encuentra en Internet o como una manera de ‘llenar el hueco’ que le falta para darte la respuesta que le pides.

En ese segundo caso, lo que dice no está respaldado por sus datos de entrenamiento o conocimiento.

La portavoz de Google Meghann Farnsworth dijo a ‘The Verge’ que los errores provinieron de “consultas generalmente muy poco comunes y no son representativos de las experiencias de la mayoría de las personas”. La empresa ha tomado medidas contra las violaciones de sus políticas, añadió, y está utilizando estos “ejemplos aislados” para seguir perfeccionando el producto.

La compañía, además, se cura en salud en todo momento: Google no prometió que su tecnología sería perfecta e incluso coloca una etiqueta que dice ‘La IA generativa es experimental’ al final de sus respuestas con inteligencia artificial.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento