Apple afirma que ReALM, su nueva IA, es más potente que ChatPGT para entender contextos

Los investigadores de Apple aseguran que el uso de resolver referencias está siendo desperdiciado por otros modelos de lenguaje.
Apple y la inteligencia artificial.
Apple y la inteligencia artificial.
DALL-E via Bing Image Creator
Apple y la inteligencia artificial.

Ante el imparable avance de la inteligencia artificial, Apple también formar parte de él y ya lleva varios meses intentándolo. De hecho, los propios investigadores de la marca de la manzana han publicado un artículo con un modelo capaz de entender y manejar diferentes tipos de contextos, dicho modelo se llama ReALM.

Según el medio BGR, la intención que hay detrás de este nuevo modelo de lenguaje, es poder solucionar referencias de varios tipos mediante unos sistemas eficaces originados mediante otros modelos de lenguajes más grandes. Todo ello se detalla en un artículo.

Cómo es el modelo ReALM de Apple

En él se explica que este modelo ya sería prácticamente igual que OpenAI 3.5 y GPT-4, eso sí, en sus versiones más pequeñas. Incluso afirman que sus modelos más grandes superan de manera sustancial a GPT-4. La idea con la que ha nacido este nuevo modelo de IA es comprender mejor los contextos de multitud de tipos diferentes. Cuentan que los modelos grandes de lenguaje, su uso de resolver referencias, concretamente para entidades no conversacionales, está siendo desperdiciado.

La marca se refiere a entidades que aparecen en la pantalla del usuario o aquellas que se ejecutan en el segundo plano y ReALM tiene la intención de crear un sistema extremadamente eficaz para resolver las referencias que tiene el habla humana. Los modelos largos de lenguaje pueden tener dificultades para comprender referencias como 'ellos' o 'eso' y por ende no poder completar las consultas de los usuarios al no comprender el contexto de las mismas.

Según Apple, ReALM sería capaz de comprender contexto y también referencias como las que acabamos de mencionar para que así un usuario pueda comunicar de forma natural a un agente o que este tenga una conversación con él. Ahí donde pretende marcar la diferencia. Además, realizaron pruebas tanto con GPT 3.5 como GPT-4. El primero de ellos solo acepta texto y el segundo también imágenes.

En el caso de la comparación con GPT-4 le proporcionaron al modelo de lenguaje una captura de pantalla para resolver una referencia, pero afirman que todavía les queda mucho trabajo por realizar y que este tipo de enfoque necesita una exploración más profunda y dedicada.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento