Un investigador explica los pros y los contras de permitir que chatbots de IA busquen en la web por ti

OpenAI recientemente lanzó una nueva versión de ChatGPT, del que se está hablando desde que se habilitó al público en noviembre.
OpenAI recientemente lanzó una nueva versión de ChatGPT, del que se está hablando desde que se habilitó al público en noviembre.
[@ilgmyzin] vía Unsplash
OpenAI recientemente lanzó una nueva versión de ChatGPT, del que se está hablando desde que se habilitó al público en noviembre.

La llegada de modelos de lenguajes de gran tamaño como ChatGPT ha hecho que muchos expertos se aventuren a pensar que los motores de búsqueda tal y como los conocemos actualmente van a desaparecer en unos años. La IA de OpenAI se ha aplicado en la actualización de Microsoft Bing, Google está probando Bard que se incluirá en su buscador, y Meta está preparando LLaMA. La inclusión de estas herramientas tiene sus pros, pero también sus contras.

Entre las ventajas, se encuentra la posibilidad de conseguir una respuesta al instante de una gran variedad de preguntas que el usuario puede tener. Con solo una oración, estos sistemas que funcionan con Inteligencia Artificial generativa son capaces de proporcionar un texto coherente tan largo como el internauta haya especificado que quiere y resolver sus dudas.

Chirag Shah, profesor de ciencias de la información en la Universidad de Washington, explica en The Conversation que las respuestas de softwares como ChatGPT pueden llegar a ser bastante personales y a personalizarse tanto como se desee. Esto es posible gracias a la técnica de aprendizaje automático que se entrena con texto disponible en multitud de publicaciones de Internet, como las de Wikipedia y PubMed.

La IA se inventa cosas

Sin embargo, no es oro todo lo que reluce y Shah señala que los modelos de lenguaje tienden a producir "declaraciones casi repetidas, sin una comprensión real". Por lo tanto, lo que las personas detectamos como una 'inteligencia' artificial es solo un reflejo de lo escrito por humanos y que la máquina entrenada repite.

Las limitaciones que tienen dichas herramientas provocan que, en ocasiones, recurran a inventar, para dar respuestas más "alucinantes" pese a que no sean verdaderas. Shah pone un ejemplo real: "Cuando se le pregunta cara del presidente de EEUU está en el billete de 100 dólares, ChatGPT responde que Benjamin Franklin no se da cuenta de que Franklin nunca fue presidente y que la premisa de que el billete de 100 dólares tiene la imagen de un presidente de EEUU es incorrecta".

Aunque un sistema de modelo de lenguaje se equivoque poco, los humanos no tenemos pistas para conocer de primeras los momentos en los que lo hace. Además, carecen de transparencia, puesto que no revelan de dónde han sacado la información de la que hablan. Shah comenta que se puede pedir a ChatGPT que escriba un informe con citas, pero que, incluso aclarándoselo, este a menudo se las inventa.

Roba contenido sin acreditarlo

ChatGPT y sistemas similares utilizan el contenido de autores para mejorar cada vez más sus resultados y esto puede incurrir plagio digital. Al no citar de dónde saca la información de la que habla, en muchos casos, aporta datos de creadores que no han consentido la divulgación de sus obras sin acreditación o sin compensación de cualquier tipo.

Esto no es solo dañino para la visibilidad que se puede dar a los artistas o autores, sino que también reduce el tráfico a los sitios webs en los que han publicado. Por lo tanto, sus ingresos se ven mermados.

Las personas aprenden menos

Gracias a las búsquedas por Internet, los usuarios exploran distintas páginas y aprenden más de lo que tenían pensado hacer cuando comenzaron la búsqueda. Según Shah, el proceso de buscar información por los motores de navegación tradicionales "les brinda la oportunidad de aprender qué hay y cómo se conectan varias piezas de información para realizar sus tareas".

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento