"ChatGPT es como un niño con un juguete nuevo que se pregunta ¿y ahora dónde pinto con esto?"

  • Entrevistamos a Juan José López Murphy, Head of Data Science and Artificial Intelligence de Globant. Este experto en IA nos habla del futuro a corto y medio plazo de la tecnología del momento.
Juan José López Murphy, Head of Data Science and Artificial Intelligence de Globant.
Juan José López Murphy, Head of Data Science and Artificial Intelligence de Globant.
Globant
Juan José López Murphy, Head of Data Science and Artificial Intelligence de Globant.

Charlamos con el experto en inteligencia artificial Juan José López Murphy, Head of Data Science and Artificial Intelligence de Globant. 

1. ¿Cómo definirías la inteligencia artificial y cuáles son sus principales aplicaciones prácticas en la actualidad?Empezaría diciendo que hasta definirlo es un problema, porque solemos asociar el término ‘inteligencia artificial’ a lo que sea que no sepamos bien cómo funciona: si funciona automáticamente y no sabemos por qué, decimos que es inteligencia artificial y cuando logramos explicarlo pasa a ser otro dominio.

Pero si tuviera que concretarlo, definiría la IA como todos aquellos desarrollos o programas con los que tratamos de hacer cosas para las cuales imaginamos que hace falta la inteligencia de un ser humano.
Es una especie de juego de imitación de esas cosas que normalmente entendemos que hace falta ser inteligente para poder hacerlas. Al principio, cuando se empezó a estudiar la inteligencia artificial, esto se asoció mucho con la parte más racional, lógica, simbólica y/o abstracta de lo que hace el ser humano. Después poco a poco nos fuimos dando cuenta de que interactuar con el mundo, ver, tocar, hablar, escuchar, decir… tiene mucho de esta estas capacidades de las de los seres inteligentes. Y que de hecho son muy difíciles de incluir.

Así, cosas que pensábamos que eran más básicas y que no requerían de inteligencia requieren una cantidad de procesos, una cantidad de agregados, que hacen que terminen siendo lo más difícil de integrar. Es decir: conseguir que se resuelva de manera matemática o lógica algo ya estaba bastante más encaminado.

Las aplicaciones de la inteligencia artificial con las que más contacto tenemos ocurren en lugares donde ni los vemos o no nos damos cuenta: cada vez que Spotify o Apple Music o Amazon nos sugiere una canción o Netflix un vídeo, hay inteligencia artificial detrás —y la inteligencia que se está replicando en ese caso es el experto que te recomendaría lo que sabe que te gusta—; o cuando buscamos una dirección en Google Maps o en Waze y nos dice cuál es el camino más rápido, estaría imitando al taxista experto que antes nos decía “no te conviene ir por esta calle porque a esta hora hay tráfico”.

Experimentamos la inteligencia artificial en productos y experiencias que tenemos todos los días, cosas sobre las que antes en algún momento alguien tenía que tomar decisiones a juicio y criterio. 

Cada vez que Spotify o Apple Music o Amazon nos sugiere una canción o Netflix un vídeo, hay inteligencia artificial detrás.

2. Si siempre ha estado ahí, ¿por qué estamos viviendo el actual ‘boom’ en torno a la IA?Si ahora se habla tanto de inteligencia artificial es porque la gente se ha enfrentado o ‘ha jugado’ con ChatGPT y eso les ha dado una sensación como de naturalidad, como de que hay algo ‘muy humano’, ‘muy accesible’ al otro lado, algo con lo que interactuar, con lo que podemos tener una conversación en nuestros términos, en nuestro lenguaje, pedirle cosas… pedirle que imagine, que nos responda, que se adapte.

Entonces, de golpe, nos damos cuenta de que hay inteligencia artificial porque vemos esto. Es como que está desencarnado de cualquier aplicación, simplemente estamos chateando, y todavía estamos viendo en dónde lo vamos a usar y por qué, porque nos parece muy interesante.

ChatGPT es como un niño con un juguete nuevo que se pregunta ‘¿y ahora dónde pinto con esto?’.

La gente se ha enfrentado o ‘ha jugado’ con ChatGPT y eso les ha dado una sensación como de naturalidad.

3. Mencionabas que la IA replica las respuestas y el conocimiento de expertos, por ejemplo, poniendo el caso de un taxista. ¿Cómo afectará la inteligencia artificial al mercado laboral en los próximos años?Hay una frase de un científico muy famoso que dice que “las predicciones son algo muy difícil, especialmente cuando son sobre el futuro” [se ríe].
Sabemos que la IA nos va a transformar en un montón de cosas, pero exactamente hasta dónde va a llegar no tenemos una idea.

Lo que nos preocupa normalmente es que desaparezcan trabajos. Lo que nosotros decimos es que lo que la inteligencia artificial automatiza son tareas, no trabajos. En un trabajo, además de algunas tareas puntuales, aparecen un montón de otras cosas que tienen que ver con objetivos, con voluntad, con el sentido de para qué se hace algo, con cuál es la necesidad que se está solucionando…

Efectivamente, hay un montón de tareas y cosas que se tienden a automatizar y va a haber algunos de estos trabajos que van a tener que transformarse, pero esto también ocurrió en el pasado, por ejemplo, con la introducción de computadoras o sistemas de cómputo. Antes había plantas enteras de calculistas para hacer proyectos de ingeniería con los planos y, de golpe, llegaron los ordenadores y una planta entera de gente fue reemplazada por un Excel.

Al final esas personas van a tener que transformarse.

No obstante, también es importante señalar que la IA no solo transforma puestos de trabajo. Por ejemplo, en el caso del taxista con un GPS, al no tener que estar pendiente del camino, tal vez esté más disponible para conversar con el pasajero, para preguntarle qué tipo de música quiere escuchar… el valor pasa a ser otro y lo que se transforma no es el trabajo en sí, sino la experiencia que ofrece.

También está el lado artístico. Un artista puede sentirse amenazado porque hay una inteligencia artificial que parece copiar su estilo. O puede decir “esta es la nueva herramienta que me va a ayudar a hacer cosas”. Hay músicos de los que se han creado versiones de sus temas con IA y han querido prohibirlas y otros, como la cantante canadiense Grimes, que lo que dijo es que permitía usar su voz para lo que fuera, siempre que fuera ético y legal, y que después se repartieran los créditos, porque si con su voz se hacía algo que realmente fuera un hit, ella quería estar ahí. Son posiciones muy distintas, las dos son entendibles. ¿Qué va a pasar en el medio? Todavía es muy difícil de saber.

Hay un montón de tareas y cosas que se tienden a automatizar y va a haber algunos de estos trabajos que van a tener que transformarse.

4. ¿En qué lugar te posicionarías tú?Personalmente, mi preocupación no pasa tanto por el reemplazo de las tareas, sino por la pérdida de humanidad. Yo creo que a nivel de trabajos y ocupaciones vamos a encontrar esa transformación de la misma manera que la economía en general se ha movido desde la producción de bienes a los servicios. Probablemente la siguiente evolución sea hacia experiencias y sea hacia distintos tipos de actividades que tienen que ver con la interacción entre los humanos, con lo cual van a aparecer una cantidad de trabajos que antes no estaban.

Pero lo difícil es cómo hacemos que la gente siga vinculándose de manera humana, es decir, si cada vez más voy a tener, pongamos como como ejemplo, series o películas enteras que se generan automáticamente con la inteligencia artificial, que puedo consumir y que son exactamente de mi gusto, tal vez cada vez menos voy a elegir exponerme ante obras de arte que me desafían, me incomodan o me expandirían el gusto porque la otra opción es fácil, es accesible, es instantánea.

Si yo puedo hacerme amigo de ChatGPT y contarle todas las cosas que me pasan y que me dé consejos, eventualmente, tal vez, ir a hablar con mis amigos a un café donde van a tener opiniones que no me gustan se vuelve más difícil.

Donde empezamos a tener toda esta disponibilidad de cosas que simplemente están de acuerdo con nosotros, cada vez se generan más burbujas y cada vez se genera más polarización en el mundo. Y eso es un fenómeno social, no es tecnológico, es como nosotros nos terminamos refugiando en la máquina en lugar de aprovecharla para conectarnos con el mundo, para ser más libres.

Esto es lo que a mí más me preocupa. Porque creo que tenemos una tendencia a ser adictos como seres humanos, lo hemos sido a sustancias, lo hemos sido a comidas, lo hemos sido actividades… y esto es una especie de droga de la mente, de droga del comportamiento. Así que aquí es donde tenemos el mayor reto y lo que vamos a tener que aprender mucho a manejar.

[La IA] es una especie de droga de la mente, de droga del comportamiento.

5. ¿Cuáles son las principales limitaciones de la inteligencia artificial en este momento?Además de lo que acabamos de mencionar, existen también limitaciones a nivel tecnológico, una de las cuales es su capacidad de ser fidedigna.

Una inteligencia artificial como ChatGPT puede alucinar cosas —‘alucinar’ se volvió el término técnico—. Esto significa que puede sostener como verdades cosas que no existen, simplemente porque a nivel del lenguaje, de cómo está construido, parecen probables. Así, puede estar desde inventando publicaciones científicas hasta hechos médicos, obras de arte o lo que sea. Para una IA no hay diferencia entre un relato y un artículo científico. Es lo mismo un cuento que un reporte.

Eso es una limitación, porque significa que todo lo que tomemos de ahí hay que validarlo, no se puede confiar ciegamente. El hecho de que ‘normalmente’ dé respuestas correctas, pero que sepas que puede haber también respuestas equivocadas, hace que no puedas confiar en ninguna.

Se está trabajando en mejorar eso, hay distintos enfoques para hacerlo, algunos más tecnológicos, otros sobre cómo agregarle capas de supervisión y otras posiciones que opinan que en las decisiones críticas siempre tiene que haber un humano en el medio, así que alguien debe validar el trabajo de la IA.

Nosotros pensamos que que haya un ser humano en medio es crítico por una cuestión de resguardo de la intención y de la responsabilidad. Es decir, si hay una decisión que tiene consecuencias importantes, alguien tiene que ser responsable de ejecutarla. No se puede decir “fue un algoritmo” y desentenderse. Además, la decisión automática puede no estar alineada con lo que es la intención o los valores humanos. Y ahí es donde es imposible sacar al humano del medio. 

Para una IA no hay diferencia entre un relato y un artículo científico.

6. ¿Cómo se está trabajando en la ética y la responsabilidad social en la investigación y desarrollo de la inteligencia artificial? ¿Es suficiente lo que se está haciendo?Como agente implicado dentro de ese sector tendría que decir que por ahora se trabaja ‘a golpes’ y se está aprendiendo ‘a golpes’.

Lo que más sorprende, de alguna manera, es el alcance o la adopción que tiene, y eso fue tan imprevisto que termina habiendo consecuencias donde uno no se lo esperaba. Entonces, algo que empezó siendo una especie de juguete académico teórico, de golpe lo están usando millones de personas para hacer consultas médicas o financieras… y el nivel de impacto que eso tiene empieza a ser un problema.

Hay quienes opinan que esto es solamente un artefacto y no se le puede pedir que sea ético. Pero la realidad es que sí se están desarrollando ideas o lineamientos de cómo ser ético a nivel de la aplicación o a nivel de cuánto sabemos del tipo de herramienta que estamos usando.

Hay una investigadora que estuvo en Google, que se llama Melanie Michelle, que estableció 6 dimensiones para decir cuándo un modelo inteligencia artificial es ético.

Nuestra visión tiene que ver con una cuestión de trazabilidad y responsabilidad, es decir, lo más importante es aclarar quién es responsable de las consecuencias cuando algo falla, porque alguien tiene que adueñarse de las consecuencias.

Si alguien decide utilizar un algoritmo en determinado contexto y tiene consecuencias negativas, ¿qué hacemos con eso? Particularmente, por ejemplo, con el tema de los sesgos, actualmente cualquier modelo de inteligencia artificial, como se basa en la historia que haya de datos disponibles, esos datos están sesgados porque las dinámicas sociales eran sesgadas y siempre tuvieron sus filtros. Entonces, aprender del pasado no nos garantiza liberarnos de ningún tipo de sesgo del pasado, sino todo lo contrario.

Hay una parte que podemos tratar de resolver: tratando de tener mejores datos, tratando de crear lo que se llama datos sintéticos para, de alguna manera, hacerlos contra fácticos de cómo hubiese sido el mundo de otra manera, de una manera más homogénea. Y eso tiene cierta potencia.

Pero después hay otra parte que conlleva qué puede hacer la persona sobre la cual se aplican los resultados de una IA. Por ejemplo, si yo estoy haciendo un modelo para saber si puedo darle un préstamo a alguien y se le rechaza el préstamo, tengo que poder reproducir cómo llegué a esa decisión para poder hacer escenarios, evaluarla, ver qué hubiera cambiado con algún parámetro, etcétera. Y así poder darle a la persona que sufre la consecuencia algún tipo de mecanismo para que lo modifique si no está de acuerdo. Tengo que devolverle el poder a la persona a la cual se termina aplicando esto, que la gente tenga herramientas para lidiar con resultados que considera injustos.

Actualmente cualquier modelo de inteligencia artificial, como se basa en la historia que haya de datos disponibles, esos datos están sesgados.

7. ¿Cuál es tu opinión sobre el papel que deberían desempeñar los gobiernos y los reguladores en la supervisión y el control de la inteligencia artificial?Está la visión de que hay que regularla y controlarla y definirla, porque como herramienta y el poder que tiene si se deja al libre uso, puede ocasionar daños que puede ser muy difícil de compensar. Y hay aspectos donde tiene sentido, por ejemplo, a nivel médico.

Hay otra visión que lo que dice es que, si yo trato de regular la herramienta, lo único que voy a estar estimulando es que se cree otra herramienta que esté por fuera de la regulación, con las mismas capacidades, para esquivarla.

Lo que tenemos que hacer es tratar de regular la cadena de responsabilidad, porque si hay previsibilidad y hay facilidad para hacer acciones al respecto, entonces son los mismos actores los que se van a autorregular, pero dejando espacio para la innovación.

Si queda claro quién sería responsable en cada escalón de la cadena de decisiones y queda claro el tipo de penalidad que puede haber, entonces todo el resto se va a ir alineando solo y los gobiernos pueden ser más efectivos y centrarse en aspectos como en cómo se le puede dar educación o recursos a las personas para que sepan cómo manejar la IA.

El problema está en que, si prohibimos que ChatGPT responda, por ejemplo, cuestiones médicas, estamos también limitando el acceso de las personas al conocimiento. Me explico: evidentemente no se pretende que nadie se automedique usando lo que le responda una IA, pero no está mal que le pregunten algo como “qué otras opciones podría discutir con mi médico si yo no sé de este tema y cuando vaya a hablar con él quiero entender lo que me ocurre”.

Desde ese punto de vista, al regularlo para limitarlo, también estoy quitando poder a la gente. La clave está en cómo lograr comunicar a las personas que la IA puede estar alucinando cuando dice algo, que lo que afirma puede ser falso. Y que está bien que lo uses para inspirarte y empezar a entender un poco del del tema, pero para la decisión final y considerar las consecuencias necesitas a un experto.

Esa pérdida del patrón de realidad de confianza es lo más difícil. Y eso es una cuestión de educación, porque sin eso todo el resto de los controles fallan.

Si queda claro quién sería responsable en cada escalón de la cadena de decisiones y queda claro el tipo de penalidad que puede haber, entonces todo el resto se va a ir alineando solo.

8. ¿Cómo crees que la inteligencia artificial puede ser utilizada para abordar algunos de los mayores desafíos globales, como el cambio climático, la pobreza y la desigualdad social?La respuesta tiene que ver con el grado en que cada problemática es científica, cuánto es social y cuánto es cultural, es decir, ¿usar la inteligencia artificial para mejorar los modelos matemáticos y físicos que tenemos para entender impactos en el ambiente y empezar a entender qué factores podríamos ir modificando? Absolutamente.

Después, cuando estamos hablando, por ejemplo, de temas de desigualdades sociales, nos puede ayudar a entender algunos mecanismos, nos puede dar herramientas para dar acceso a otros, pero también es peligroso porque a alguien se le puede ocurrir ideas bastante distópicas como tratar de mejorar la asignación de recursos de educación intentando predecir si una persona va a hacer un doctorado o no cuando tiene 3 o 4 años. Eso sería horroroso. Anula toda libertad de la persona, es pseudociencia, es impredecible y, en realidad, lo único que estaría haciendo es un perfilado racial, pero con matemática, o sea, no está agregando inteligencia en ese proceso.

En todo lo que tiene que ver con dinámicas sociales y culturales, creo que el camino en el cual nos puede ayudar es a descubrir cosas que no veíamos, pero que están involucradas ahí, y en dar herramientas para nivelar hacia arriba el acceso que tiene la gente a distintas posibilidades. 

Dar herramientas para nivelar hacia arriba el acceso que tiene la gente a distintas posibilidades.

9. ¿Qué áreas de investigación en inteligencia artificial crees que son especialmente prometedoras y por qué?Creo que es muy prometedor a nivel de desarrollo biológico. Que los ensayos clínicos y todo lo que viene después sea mucho más efectivo, mucho más rápido, menos costoso, y eso tiene un potencial enorme. El riesgo es que en algún momento se confunda la muleta con aprender a caminar y se crea que esa herramienta de asistencia es lo que hace el diagnóstico. Pero cuando está usado por los profesionales de salud y los investigadores, el potencial que tiene es enorme.

A nivel de educación, he visto algunas ideas muy interesantes sobre cómo ayudar en el proceso de aprendizaje de una manera más interactiva, más como construcción de conocimiento. Que les permita a los alumnos hacerse preguntas que les interesen. Por ejemplo, ¿qué pensaría un personaje histórico que estén estudiando de TikTok? O ¿cómo haría Gandhi para adoptar un perro? Se trata de dar realidad a un hecho histórico que de la manera convencional se estudia de forma muy abstracta.

A nivel exploratorio, todo lo que pueda fomentar la curiosidad de los alumnos en lugar de simplemente definir los temas que tienen que aprender, y hacer eso muy adaptativo, me parece muy valioso. 

¿Cómo haría Gandhi para adoptar un perro? Se trata de dar realidad a un hecho histórico.

10. ¿Cuál es el futuro de la inteligencia artificial, y cuáles son los desafíos y oportunidades que se presentan en el horizonte? ¿Cuál crees que es el próximo gran avance que podríamos esperar en el campo?Hay 3 cosas que son importantes y que se están tratando de trabajar.
Una tiene que ver con la causalidad o la explicación, porque muchos de estos modelos son una caja negra. Uno puede preguntar a ChatGPT por qué respondió determinada cosa y el programa va a crear una respuesta tal vez convincente, pero que puede tener relación absolutamente nula con por qué dio la respuesta que dio.

Es decir, no hay una reflexividad de estos modelos para entenderse a sí mismos y poder explicar sus acciones. Así que todo lo que fomente esa capacidad de explicación hace que sean mejores herramientas científicas, más confiables, más controlables.

Otra sería cómo combinar estas ideas generativas con datos más verificables. A nivel comunidad se está avanzando un montón, hay librerías, están los plugins de ChatGPT para conectar a documentos… pero los programas siguen alucinando.

El siguiente paso va a ser que cuando genere un tipo de respuesta, se pueda comprobar si eso es consistente con los datos verificables y entonces, sí, validarlo.

Y la tercera tiene que ver con una expansión de la multimodalidad. Nosotros decimos que una inteligencia artificial es multimodal cuando puede manejar más de un tipo de input-output, es decir, ChatGPT es de texto a texto, pero Bing Chat o Midjourney pueden generar imágenes desde texto.

Lo que tenemos actualmente va a ir evolucionando hasta que el input puede ser cualquier cosa y el output pueda ser cualquier cosa. Tal vez le tararee una melodía que me recuerda a algo a una inteligencia artificial y esta me ayude creando una imagen o un texto. Incluso tal vez en un futuro próximo pueda empezar a incorporar señales no verbales cuando le quiero decir algo a una IA, de manera que podamos responder simplemente levantando los hombros ante una pregunta dada, por ejemplo.

Esto último sería crucial para empezar a incorporar todo el resto de nuestro bagaje comunicacional para interactuar de una manera súper natural con un dispositivo y no tener que usar siempre un segundo lenguaje.

Al utilizar solo texto estamos forzándonos a usar otro lenguaje que no es nuestro lenguaje materno, que incluye no solo palabras, sino también expresiones, así que estamos limitando nuestra expresividad en nuestra conexión con, en este caso, la IA.

Esto está mucho más cerca de lo que nos parece y además es un tipo de desarrollo que crece exponencialmente, al menos en la percepción. Con esto me refiero a que todos los componentes para ChatGPT ya estaban disponibles casi un año antes de que ocurriese, pero de golpe lo vimos, cruzó el umbral de nuestra percepción y todo tuvo sentido. Es como que ‘hizo clic’, encajó, y nos dimos cuenta de que estaba, pero las partes separadas ya existían.

Con esto de la multimodalidad está pasando lo mismo.

Tal vez le tararee una melodía que me recuerda a algo a una inteligencia artificial y esta me ayude creando una imagen o un texto.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento