Pilar Manchón: "Si en España un niño dice que quiere ser astronauta es como si dijese que quiere ser Harry Potter"

Pilar Manchón, directora de Estrategia de Investigación en Google AI.
Pilar Manchón, directora de Estrategia de Investigación en Google AI.
Google
Pilar Manchón, directora de Estrategia de Investigación en Google AI.

Española, de Sevilla y de familia modesta. Pilar Manchón reconoce que ese no es un punto de salida fácil para el mundo tecnológico, especialmente a los ojos de la comunidad internacional. Tampoco es que en España nos lo pongamos fácil: la autocrítica y cierta cultura de no ser tanto como otros países nos sobrevuelan constantemente.

Sin embargo, Pilar aboga por el sí se puede. Se puede ser española y terminar como directora de Estrategia de Investigación en Inteligencia Artificial en Google. Y, además, no solo se puede hacer, sino que hay que contarlo para que las futuras generaciones se crean que es posible llegar a lo más alto -aunque ella no considere que está todavía en la cima- independientemente del lugar de origen.

En España “tenemos una cantera de talento impresionante” y profesionales “con una categoría técnica que no tiene que envidiarle nada a nadie”. Solo nos queda romper nuestras propias barreras.

¿Quién es Pilar Manchón? ¿Cómo ha sido tu trayectoria profesional?

Empecé estudiando Lingüística en la Universidad de Sevilla y continué mis estudios en la Universidad de Edimburgo con un máster en Ciencia Cognitiva y Lenguaje Natural. Después me doctoré en Inteligencia Artificial y Lingüística Computacional en estos dos centros educativos, para lo que también hice una estancia en Standford.

A partir de ahí comencé a trabajar como investigadora y en distintas empresas hasta que finalmente me lancé a montar mi propia startup junto a Gabriel Amores. Indisys tuvo muchísimos altibajos, pero la historia tiene un final feliz: supimos crecer a nivel internacional y, tras la última ronda de financiación, Intel acabó comprando esta empresa.

Parte de esa transacción era que yo me mudara a Silicon Valley y me uniera al equipo de dirección en Santa Clara, en la sede principal de la compañía Intel. Pasé varios años allí y después fui rotando por varias empresas: estuve en Amazon como directora de Interfaces Cognitivas y en Roku como vicepresidenta de Inteligencia Artificial. Finalmente, ahora me encuentro trabajando en Google como directora senior de Estrategia de Investigación aplicada a Sistemas Conversacionales.

"Estuve en Amazon como directora de Interfaces Cognitivas y en Roku como vicepresidenta de Inteligencia Artificial"

¿Qué es esto de la Lingüística Computacional?

La Lingüística Computacional es una mezcla... es una disciplina multidisciplinar, es decir, fusiona lo que es el estudio profundo de la Lingüística con las aplicaciones computacionales, tanto para modelar las estructuras lingüísticas que estudiamos como para reproducir los procesos lingüísticos que desde el punto de vista humano realizamos.

¿...y en nuestro idioma?

[Se ríe] Por decirlo de una forma sencilla, es la unión de una cosa que es tan humana como el lenguaje natural con una cosa que es tan técnica como las máquinas, los ordenadores y la computación. Cómo hacer que esos dos mundos sean compatibles y estén al servicio de la sociedad y de los ciudadanos.

¿Y qué se hace para que esos dos mundos estén a nuestro servicio? ¿Cómo nos beneficia la Lingüística Computacional?

Se puede utilizar como herramienta de análisis de textos: ver lo que dice un texto y el tono que tiene, si es algo positivo o negativo, saber sobre qué trata... nos puede servir para responder a multitud de preguntas específicas sobre sus contenidos.

Esto puede servir para muchas cosas, por ejemplo para hacer búsquedas y dar resultados acotados a esas búsquedas de una forma inteligente, que es lo que hace Google, pero también podría permitir crear textos propios.

Aquí entra en juego una parte interesante sobre el estudio de la creatividad en este campo: ver cómo una máquina no es solo capaz de analizar cosas que se han creado por humanos, sino que puede generar algo nuevo con el estilo de un autor en particular.

Estamos más acostumbrados a ver esto en otro tipo de arte. Por ejemplo, hay aplicaciones que funcionan con un algoritmo que permite transformar una imagen como si hubiera sido pintada al estilo de Van Gogh. Igualmente se podría lograr generar un texto que simule el estilo de Shakespeare o de Cervantes.

Otra forma de aplicar la Lingüística Computacional son los sistemas conversacionales, que es el área en la que yo me centro. Esta es una parte importantísima, pues permite no solamente analizar conversaciones, que son muy distintas de un texto plano, sino que además podemos generar entidades virtuales con las que puedes mantener una conversación.

Esto es aplicable a casi cualquier cosa: desde servicios que están dirigidos a darte información hasta otros dirigidos a la educación. De hecho, en mi opinión, el uso de los sistemas conversacionales lleva a una democratización de la inteligencia artificial: sin necesidad de ser un experto en todas estas terminologías y tecnicismos relacionadas con la IA, puedes mantener una conversación con estos asistentes al nivel que sea necesario en función de tus conocimientos.

"El uso de los sistemas conversacionales lleva a una democratización de la inteligencia artificial"

Poder ‘hablar’ con un sistema virtual está muy bien... pero la mayoría de la gente concibe la inteligencia artificial como algo frío y alejado de nosotros... ¿está el sector trabajando por humanizarla? ¿Cómo?

A mí me encanta hablar de cómo se mezclan las Humanidades con la IA, de hecho hace un par de años en una sesión con un filósofo él se posicionó como si fuera un enfrentamiento al principio y cuando acabó la sesión acabamos compartiendo y casi poniéndonos de acuerdo en la mayoría de las cosas, porque aunque se perciben como polos opuestos es todo lo contrario: la inteligencia artificial es una herramienta al servicio de la humanidad, y no se concibe que generemos una herramienta al servicio de la humanidad sin entender la humanidad y el Humanismo es la ciencia que estudia a los humanos... por eso hay una relación tan intrínseca.

Algunas veces, por centrarte en una parte tan complicada como es la parte matemática y algorítmica de la inteligencia artificial, se olvida un poco o se deja de lado la parte humana, pero yo creo que sobre todo en los últimos años ha habido un renacimiento de esto y hemos sido muchos, los que venimos del lado más humanista de todo esto, los que hemos roto una lanza en favor de la Filosofía, la Lingüística, la Historia... en favor de todo lo que es el Humanismo, que nos ayuda a definir las partes más complicadas de la IA.

Yo me dedico en gran parte a hacer que la IA desde el punto de vista de los sistemas conversacionales sea mucho más asequible y más humana. De hecho, una de las áreas de investigación que más me interesa es modelar las necesidades cognitivas humanas para que sean los algoritmos los que se adapten a nuestras necesidades y no a la inversa. Si observas el actual mercado, verás que los productos de las distintas compañías tienen unas limitaciones muy claras en términos de lo que pueden y no pueden hacer y ‘se aprovechan’ de lo inteligentes que somos los humanos y de lo fácil que es para nosotros adaptarnos, de manera que somos nosotros los que aprendemos a usarlos, en lugar de que sean los propios algoritmos los que aprendan cuáles son nuestras necesidades y sepan cubrirlas.

"Me dedico a hacer que la IA (los sistemas conversacionales) sea mucho más asequible y más humana"

Eso serían máquinas muy inteligentes... Hace unos años, Stephen Hawking dijo que la inteligencia artificial podría significar el fin de la raza humana. ¿Qué hay de todos los miedos que suscita la IA? ¿Son infundados?

Normalmente el miedo surge del desconocimiento... muchas veces uno tiene medio al cambio y tiene miedo porque no conoce lo que se le presenta, a veces también por falta de transparencia. Yo a estas personas les diría que la inteligencia artificial es una herramienta muy poderosa y como tal podemos hacer cosas maravillosas con ella. El peligro está en si es utilizada para cosas que no sean buenas, y eso hay que prevenirlo. ¿Cómo? Por una parte está la regulación: la IA tiene que estar regulada de una manera sensata, sin que pongamos ‘barreras al campo’, porque el progreso sigue adelante, es decir, que las normas deben permitir que sigamos avanzando, pero prevenir un mal uso.

En Google tenemos una serie de guías y recursos para que tanto nuestros trabajadores como empresas externas que utilizan nuestros sistemas los usen de forma ética. Obviamente uno se puede desviar del rebaño... pero una de nuestras metas como empresa, como equipo y como científicos es precisamente prevenir el mal uso de estas tecnologías, y de hecho tenemos cientos de personas que se dedican a esto. La compañía, además, está ayudando a expandir esa cultura de avanzar siendo éticos.

"La IA tiene que estar regulada de una manera sensata, sin que pongamos ‘barreras al campo’, porque el progreso sigue adelante"

Uno de esos malos usos, que además últimamente ha sido muy debatido, es cómo los sistemas de IA perpetúan los prejuicios de los humanos al haberse ‘entrenado’ con ellos. ¿Qué opinas?

Que es totalmente cierto. Los humanos somos imperfectos y somos nosotros los que tenemos esos prejuicios y los que generamos datos que tienen ese tipo de ruido. Ante esto, hay dos aproximaciones: o creamos humanos perfectos que generen datos perfectos [ríe] ...o lo que podemos hacer es intentar ‘limpiar’ esos datos. Incluso cuando los utilizamos tenemos herramientas que te ayudan a analizar por qué se han tomado determinadas decisiones con ellos o por qué se hacen determinadas recomendaciones, de manera que podemos tener cierta noción sobre qué parte del modelo ha generado ese ruido.

Por el momento, el estado del arte no te permite tener un análisis transparente de lo que hacen las redes neuronales profundas, pero sí que nos da cierta noción de lo que es la interpretabilidad de los servicios y de por qué toman las decisiones que toman.

Es decir: que se puede, por un lado, hacer una limpieza previa de los datos antes de que se generen los modelos y, por otro, una vez se han generado, testarlos de una manera segura, con todas las aplicaciones de diversidad e inclusión posibles, para prevenir que los resultados sean los no deseados.

"O creamos humanos perfectos que generen datos perfectos... o ‘limpiamos’ esos datos"

Entonces no hay que humanizar tanto los sistemas de Inteligencia Artificial...

Bueno, esto se explica fácilmente con un ejemplo: un oncólogo es capaz de detectar en una imagen aproximadamente entre un 60% y 70% de las manchas y casos clínicos, mientras que la inteligencia artificial ha demostrado superar esta detección con creces... ¿bajamos la precisión para ser más humanos?

De lo que se trata es de utilizar la IA para que nos ayude a ser mejores... se puede usar de una manera poco ética, esto es una realidad, pero si lo hacemos bien yo estoy convencida de que podemos llegar a una sociedad mucho mejor, y no solamente en lo relativo a la productividad, a hacer las cosas más rápido y con mayor precisión, también en lo relativo a la reflexión que nos obliga a hacer, que nos hace ser más conscientes de nuestras propias imperfecciones y del espacio de mejora que tenemos.

"La IA nos hace ser más conscientes de nuestras propias imperfecciones"

Háblanos de tu vida en Silicon Valley, ¿cómo se llega hasta la cima tecnológica?

¿Yo estoy en la cima tecnológica? [Ríe] Me queda todavía mucho por subir...

Bueno, desde luego has llegado al valle tecnológico...

[Ríe de nuevo] Sí. Yo muchas veces defino venir a Silicon Valley como clasificarse para ir a los Juegos Olímpicos: cuando tú te clasificas, simplemente te has clasificado, y queda lo más duro, que es competir. Es cierto que llegar hasta ahí es complicado, pero una vez llegas tienes a tu alrededor a lo mejor de lo mejor del resto del mundo y tienes que demostrar tu capacidad.

Esa trayectoria ha sido para mí un viaje de aprendizaje, de expandir mi conocimiento y aprender cosas nuevas y un viaje de autodescubrimiento. Esto no ha sido motivado solo por venir a Silicon Valley, sino también por el hecho de emprender y hacerlo desde España -y en especial desde el sur de España-, como mujer, como madre y, una vez en Estados Unidos, como latina. Porque hay una diferencia cultural significativa y porque sí, hay ocasiones en las que he vivido discriminación por ser latina.

Me parece importante en ese sentido crear modelos para que niñas y niños en nuestro país vean que una persona como ellos tiene capacidad para estar liderando cosas tan importantes como Inteligencia Artificial en Google.

Esto te hace sentir humilde y fuerte a la vez, y con cierta responsabilidad de contar tu historia, pero no solo las partes buenas y los éxitos, también los baches, porque si hay alguien que está pasando por algo similar y oye que hay luz al final del túnel puede que le estés ayudando.

Sí, en España el emprendimiento es difícil...

Mucho, para que te hagas una idea, la pregunta que más me hicieron en mi última ronda de financiación en Indisys fue por qué habíamos creado la empresa en España. Había un nivel de escepticismo internacional...

"Venir a Silicon Valley es como llegar a los Juegos Olímpicos... queda lo más duro, que es competir"

¿Y ese reparo hacia la tecnología en España todavía existe o crees que pasados estos años se ha ido suavizando?

Creo que las cosas han cambiado y han cambiado para mejor. Creo que ahora hay más financiación y que hay más concienciación de que tenemos la capacidad de hacer cosas importantes. Han salido varios unicornios y tecnología muy interesante y muy importante de España.

Yo siempre he dicho que tenemos una cantera de talento impresionante, en España hay gente buenísima, con una categoría técnica que no tiene que envidiarle nada a nadie. Lo que pasa es que culturalmente tenemos barreras autoimpuestas que son muy difíciles de romper.

Nos criamos con ese dicho de que ‘más vale ser cabeza de ratón que cola de león’... Y yo digo: ¿y por qué no cabeza de león? Culturalmente hay una humildad mal entendida en la que aspiramos a ser mediocres, suena muy drástico, pero aspiramos a vivir bien, pero bien ‘medianitos’... no a cambiar el mundo. Si en España un niño dice que quiere ser astronauta es como si dijese que quiere ser Harry Potter y eso es una pena. En Estados Unidos es distinto: mi hijo ha conocido a tres astronautas y, si quiera serlo, no sería como algo de ficción que solo ve en las películas.

"Aspiramos a vivir bien, pero bien ‘medianitos’... no a cambiar el mundo"

El emprendimiento también se entiende diferente allí.

No tiene nada que ver. Siguiendo con los astronautas, uno de los que conocimos era una persona que se había presentado 16 veces al programa hasta que lo cogieron. Es un ejemplo de tesón y perseverancia, una demostración de que el que es astronauta no es porque sea buenísimo y salga perfecto, no, es porque trabaja, se sacrifica, lo intenta, lo echan para atrás y vuelve a intentarlo.

Esa cultura en la que fallas una vez y eso no es malo, solo significa que lo debes intentar otra vez, y la segunda lo harás un poquito mejor, y la tercera mejor... esa cultura del error como aprendizaje no la tenemos todavía en España, y es muy importante que lo aprendamos porque nadie sale corriendo antes de andar. Hay que andar, hay que caerse, y luego ya uno empieza a hacer cosas más importantes.

Volvemos a Google. Ahora, ¿en qué estás trabajando?

Pues no sé si lo puedo contar... [ríe] Soy directora de Estrategia de Investigación. Soy la primera en ocupar este puesto, que crearon Jeff Dean y Fernando Pereira. Ellos son muy visionarios y una de las cosas que observaron es que en Google se hace tantísima investigación que una de las frases que más se usa en el departamento de Research es ‘A thousand flowers blooming’ -‘Un millar de flores floreciendo’-. Muchos investigadores con mucho talento haciendo muchas cosas maravillosas.

Esto, como empresa, puede ser muy interesante, pero en un momento dado lo que interesa es crear cosas específicas, tener una estrategia que permita que puedas hacer un ramillete, por seguir con la metáfora de las flores... el primer campo en el que se va a hacer eso es la inteligencia conversacional y ahí es donde entro yo.

Mi trabajo, entonces, es ver cómo unir los puntos entre todos los proyectos en los que se está trabajando con este tipo de tecnologías, ver cómo pueden ser complementarios. Es crear convergencia y marcar una serie de metas hacia las que trabajar y hacerlo de una manera más coordinada, manteniendo la libertad científica, que es lo que nos caracteriza como empresa.

"Soy directora de Estrategia de Investigación en Google. Soy la primera en ocupar este puesto"

¿Algo materializado que nos puedas contar?

[Toma aire dando misterio y ríe] ...no.

Hace más de veinte años que te dedicas a la inteligencia artificial, ¿pensabas entonces que estaríamos donde estamos ahora?

No me planteaba si era algo que iba a pasar pero sí era algo que quería que pasara, y en consecuencia me dediqué a ello. Para mí el lenguaje natural y los modelos conversacionales han sido siempre algo muy clave.

Cuando yo empecé, los sistemas más inteligentes que había era aquellos que te decían ‘Para más información pulse 1 o diga información’... avanzar en ese sentido para mí era una parte muy importante y era una apuesta personal.

Eso sí: el lenguaje natural es importante, pero es un ingrediente, no es todo. La manera en la que tú y yo nos estamos comunicando no es solamente con el lenguaje natural, nos estamos viendo, hay un lenguaje corporal, unos gestos, hay un contexto compartido... Cuando hablamos de la inteligencia artificial hablamos de una capacidad de comunicación aumentada, una vez lleguemos a dominar el lenguaje natural en ella aún podríamos llegar a más.

¿Y qué nos depara el futuro?

Creo que estamos en un momento súper interesante y muy emocionante. Google anunció hace un año oficialmente que ha alcanzado la supremacía cuántica. En una síntesis sencilla, la computación cuántica lo que te permite es hacer mucho más y mucho más rápido. ¿Qué supone esto para la IA? Muchas de sus limitaciones vienen por la capacidad de procesamiento en tiempo real. Cuanto más complejo es el modelo y más datos necesita, más grande es también la máquina que necesita para poder procesarse. La computación cuántica hace esto posible a unos niveles antes impensables.

Es un avance natural... piensa si no en el ordenador que utilizaron para mandar el primer cohete a la Luna desde la NASA, un ‘maquinón’ enorme... y ahora tienes más en un smartphone. Esto es el siguiente paso equivalente y va a cambiar mucho nuestra forma de hacer las cosas, dándonos la libertad de generar modelos mucho más complejos y, en consecuencia, mucho más inteligentes en cuestión de pocos años.

Otro breakthrough reciente ha sido la publicación de los modelos BERT, son unos modelos preentrenados a partir de los cuales se analiza todas las palabras de una búsqueda en Google Search para entender el contexto de la misma y ofrecer resultados más acordes.

Todo ese tipo de innovación, y especialmente el hecho de que la estamos liberando y la ponemos al alcance de la comunidad científica, crea un cúmulo de oportunidades que van a explotar en el mejor sentido de la palabra.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento