Los errores de ChatGPT y otros modelos de lenguaje grande son uno de los riesgos que los expertos mencionan al hablar sobre la inteligencia artificial. Las personas pueden considerar cierto lo que esta tecnología dice y ocasionar problemas a la larga. Conforme más se entrenan, estas se vuelven más precisas y correctas y OpenAI ha lanzado un sistema para ayudar a su chatbot a aprender matemáticas.
Desde que la compañía lanzó ChatGPT al público, millones de usuarios en todo el mundo ha recurrido a él para sus consultas. Eso ha provocado que varios países y expertos hayan considerado importante regular sobre el tema y exigir a las firmas que trabajen en sus IA para que no desinformen y se inventen información en caso de que no sepan la respuesta.
Para evitar lo que OpenAI cataloga de 'alucinaciones', ha elaborado un nuevo proceso para su IA que le anima a tener más en cuenta el proceso de un cálculo matemático que el resultado. "Incluso los modelos más avanzados son propensos a producir falsedades; exhiben una tendencia a inventar hechos en momentos de incertidumbre", ha señalado la firma en su blog.
Con el objetivo de que ChatGPT supervisase el proceso y no el resultado, OpenAI lo entrenó con 800.000 etiquetas humanas. "Un solo error lógico es suficiente para descarrilar una solución mucho más grande" y este modelo podría evitarlo en problemas matemáticos y, se espera, que más adelante ayude a más tipo de cuestiones.
Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.
Comentarios
Hemos bloqueado los comentarios de este contenido. Sólo se mostrarán los mensajes moderados hasta ahora, pero no se podrán redactar nuevos comentarios.
Consulta los casos en los que 20minutos.es restringirá la posibilidad de dejar comentarios