OpenAI trabaja en una nueva técnica para evitar las 'alucinaciones' de ChatGPT

Que ChatGPT se enfoque en el proceso y no en el resultado facilitará su entrenamiento matemático.
Que ChatGPT se enfoque en el proceso y no en el resultado facilitará su entrenamiento matemático.
Viralyft de Unsplash
Que ChatGPT se enfoque en el proceso y no en el resultado facilitará su entrenamiento matemático.

Los errores de ChatGPT y otros modelos de lenguaje grande son uno de los riesgos que los expertos mencionan al hablar sobre la inteligencia artificial. Las personas pueden considerar cierto lo que esta tecnología dice y ocasionar problemas a la larga. Conforme más se entrenan, estas se vuelven más precisas y correctas y OpenAI ha lanzado un sistema para ayudar a su chatbot a aprender matemáticas.

Desde que la compañía lanzó ChatGPT al público, millones de usuarios en todo el mundo ha recurrido a él para sus consultas. Eso ha provocado que varios países y expertos hayan considerado importante regular sobre el tema y exigir a las firmas que trabajen en sus IA para que no desinformen y se inventen información en caso de que no sepan la respuesta.

Para evitar lo que OpenAI cataloga de 'alucinaciones', ha elaborado un nuevo proceso para su IA que le anima a tener más en cuenta el proceso de un cálculo matemático que el resultado. "Incluso los modelos más avanzados son propensos a producir falsedades; exhiben una tendencia a inventar hechos en momentos de incertidumbre", ha señalado la firma en su blog.

Con el objetivo de que ChatGPT supervisase el proceso y no el resultado, OpenAI lo entrenó con 800.000 etiquetas humanas. "Un solo error lógico es suficiente para descarrilar una solución mucho más grande" y este modelo podría evitarlo en problemas matemáticos y, se espera, que más adelante ayude a más tipo de cuestiones.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento