¿Puede la IA aprender de un bebé? 61 horas de vídeo de una cámara en la cabeza de un niño dicen que sí

Sam es un niño de unos dos años que vive Australia. Durante 18 meses ha llevado unos minutos al día un casco con una cámara que capturaba las cosas que miraba y a las que prestaba atención. Con esos datos se ha entrenado un modelo de IA y el resultado ha sorprendido a los investigadores.
El objetivo de la investigación de la Universidad de NY es acercar cada vez más el lenguaje sintético al lenguaje de los humanos.
El objetivo de la investigación de la Universidad de NY es acercar cada vez más el lenguaje sintético al lenguaje de los humanos.
DALL·E
El objetivo de la investigación de la Universidad de NY es acercar cada vez más el lenguaje sintético al lenguaje de los humanos.

Una de las partes más alucinantes cuando ves crecer a un bebé es observar cómo evoluciona su lenguaje. Es fascinante ver cómo aprenden sin dificultad conceptos y relaciona objetos y palabras. Cada nuevo sonido se lleva una gran ovación, sin darnos cuenta de que no solamente es una monada, sino que es también una tremenda proeza. Ni las IA más avanzadas de la actualidad son capaces de hacer algo similar.

Los modelos de lenguaje que impulsan sistemas como ChatGPT son excelentes para predecir la siguiente palabra en una oración, pero no tienen nada que se acerque al sentido común de un niño pequeño. Para poder escribir en un inglés aceptable, estas tecnologías se entrenan en conjuntos de datos masivos que contienen millones de palabras. Los bebés, en cambio, solo tienen acceso durante sus primeros años de vida a una pequeña parte de ese conocimiento y, sin embargo, en ese tiempo son capaces de aprender a hablar mucho mejor que la más inteligente de las inteligencias artificiales.

Pero ¿y si una IA pudiera aprender como un bebé? Un nuevo trabajo de la Asociación Estadounidense para el Avance de la Ciencia (AAAS) coordinador por investigadores de la Universidad de Nueva York (Estados Unidos) y publicado en la revista ‘Science’ relata cómo un nuevo modelo de aprendizaje automático, entrenado con vídeo y audio grabado desde la perspectiva en primera persona de un niño pequeño durante más de un año, ha proporcionado nuevos conocimientos sobre la adquisición temprana del lenguaje.

Así es Sam, el bebé en el que se ha fijado la IA

Sam es un niño australiano de alrededor de dos años que vive cerca de la ciudad de Adelaida. Durante 18 meses, cada día, aproximadamente el 1% de sus horas de vigilia el pequeño llevaba puesto un casco en la cabeza con una cámara que capturaba las cosas que miraba y a las que prestaba atención. 

Un total de 61 horas de vídeo en las que Sam, desde que tenía seis meses hasta poco después de su segundo cumpleaños, miraba sus gatos, a sus padres, su cuna, sus juguetes, su casa, sus comidas... es decir: lo cotidiano en un bebé de esa edad que vive en el mundo occidental.

¿Qué podría hacer un modelo de IA si se le diera un conjunto de datos así?

Los investigadores de la Universidad de Nueva York han demostrado que los sistemas de inteligencia artificial son capaces de adquirir palabras y conceptos a partir de la misma cantidad limitada de información sensorial que recibe un bebé, desafiando la creencia actual de que se necesitan millones de parámetros para enseñar a una IA y, por tanto, marcando un hito este sector y en el de la lingüística.

Con los datos de la cámara en el casco que llevaba Sam se ha entrenado un modelo de IA. Así, esta inteligencia artificial basa su aprendizaje en las imágenes y los sonidos experimentados por un niño que está aprendiendo a hablar.

En concreto, para entrenar el modelo, se utilizaron 600.000 fotogramas de vídeo combinados con las frases pronunciadas por los padres de Sam u otras personas en la habitación cuando se capturó la imagen: 37.500 “expresiones” en total. 

Con la intención de que el modelo aprendiese, a veces las palabras y los objetos coincidían y a veces no lo hacían. Se le daban dos pistas: cuando los objetos y las palabras aparecen juntos, es una señal de que podrían estar vinculados. Pero cuando un objeto y una palabra no aparecen juntos, es una señal de que probablemente no coincidan.

Según los investigadores que llevaron a cabo el experimento, el modelo de IA logró relacionar palabras con los objetos que representan.

“Este es el primer estudio que muestra cómo una red neuronal, entrenada con información realista del desarrollo de un niño, puede aprender a relacionar palabras con sus equivalentes visuales”, ha señalado Wai Keen Vong, autor principal de la investigación.

Este descubrimiento abre nuevas vías para el desarrollo de sistemas de IA más eficientes y naturalistas, y ofrece insights valiosos sobre la adquisición temprana del lenguaje en humanos.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento