Los hilos que mueven ChatGPT: así es la tecnología que permite 'hablar' al chatbot más popular del mundo

En 20Bits te vamos a contar todo lo que necesitas saber para iniciarte en el mundo de la IA
La 'mano invisible' que mueve ChatGPT y otros modelos de lenguaje grandes.
20BITS
En 20Bits te vamos a contar todo lo que necesitas saber para iniciarte en el mundo de la IA

Los chatbots basados en inteligencia artificial como ChatGPT de OpenAI o Bard de Google han demostrado en pocos meses lo útiles que son. Los llamados modelos de lenguaje de gran tamaño (Large language models, LLM) son herramientas entrenadas con grandes cantidades de datos para conversar, resolver dudas o agilizar las tareas de los usuarios como lo haría un humano.

Las respuestas que dan casi al instante a lo que las personas plantean han asombrado a varios expertos, como Bill Gates. El cofundador de Microsoft admitió en su blog hace unos meses que lo que se estaba consiguiendo con la IA le recordaba a lo que supuso la interfaz gráfica en su día

Pero, aunque los LLM actuales nos parezca increíble, todavía es algo incipiente a lo que le queda mucho recorrido por delante. Por ese motivo, para que no se salga de control, los reguladores están comenzando a plantear normas, más o menos restrictivas, como la de la Unión Europea, EEUU o Japón.

¿Cómo se entrenan los LLM?

Los resultados que los LLM están dando, tan parecidos a los que daría un humano, no surgen de la nada. Detrás de ello, hay un entrenamiento que tiene en cuenta millones de datos que circulan por Internet. Por ejemplo, el modelo LaMDA (Language Model for Dialogue Applications) en el que se basa Bard, utiliza la Wikipedia, "foros públicos" y "documentos de código de sitios relacionados con la programación, como sitios de preguntas y respuestas, tutoriales, etc.". 

Ante el uso de los foros como información de entrenamiento, Reddit y StackOverflow anunciaron sus intenciones de comenzar a cobrar por acceder a sus conversaciones de texto en línea.

Todos los datos recopilados de Internet (de momento de forma gratuita para los desarrolladores de IA) se procesan en una red neuronal. Esto último es una especie de 'motor' de la IA compuesto por nodos y capas y que se ajustan constantemente para interpretar y dar sentido a la información almacenada en función al contexto de la conversación, teniendo en cuenta los resultados de pruebas y errores anteriores.

La mayoría de los LLM utilizan una estructura de red neuronal llamada 'transformador'. Este concepto comenzó a usarlo Google en 2017, al hablar de su desarrollo en IA. Ahora lo usan más marcas, como OpenAI, con sus siglas GPT, que significan 'Generative Pre-Trained Transformer'.

¿A qué se refieren con transformador?

Un transformador es capaz de leer grandes cantidades de texto (como las que manejan los grandes LLM) y detectar patrones de cómo se formulan las frases y cómo se relacionan las palabras. De esta manera, las conversaciones que tan reales parecen con los chatbots son todo fruto del procesamiento de datos con transformadores.

Lo que son los LLM y en lo que se pueden convertir

En resumidas cuentas, ChatGPT o Bard tienen poco de inteligentes, pese a que se les conozca como IA. Eso se debe a que no saben lo que dicen, sino que han aprendido a cómo poner una palabra detrás de otra para que el texto sea coherente y más creativo. Sin embargo, también ponen atención a no repetirse, por lo que, a veces, no escogen las palabras más correctas para continuar su oración y eso puede llevar a textos con menos sentido. Esto último, por suerte, no ocurre con tanta frecuencia en los modelos más avanzados y se espera que, con el tiempo, lo hagan mucho menos.

Otro error es que el texto generado suele dar respuestas genéricas o clichés con el objetivo de sintetizar la información. Una gran ventaja de los LLM es que resumen el contenido que hay en la web, sin embargo, si queremos extendernos, no suelen ser la opción idónea de momento.

Para optimizar sus respuestas, las compañías contratan a supervisores capacitados y se aprovechan también de los usuarios finales que corrigen a los LLM. Así, estos modelos pueden ir aprendiendo de sus errores y ‘comprender’ cuando ha respondido mal, cuando podría hacerlo mejor y cuando ha mentido. A esto se le conoce como 'Aprendizaje de refuerzo sobre la retroalimentación humana' (RLHF son sus siglas en inglés).

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento