ROSALÍA LLORET. PERIODISTA Y EXPERTA DIGITAL
OPINIÓN

Inteligencia artificial: la culpa es de los padres

Un robot utiliza un teclado.
Un robot utiliza un teclado.
GTRESONLINE
Un robot utiliza un teclado.

La semana pasada nos enteramos de que OpenAI, la compañía de inteligencia artificial financiada por Elon Musk (creador de Tesla), había decidido no lanzar al público, de momento, su nuevo generador automático inteligente de textos GPT2. Según sus creadores, el GPT2 es tan potente y sofisticado en la creación automática de escritos de todo tipo que resulta imposible distinguirlos de los redactados por un humano, algo que en manos maliciosas podría significar la producción y distribución masiva de noticias falsas para influir en procesos electorales o hundir cualquier negocio con malas y muy creíbles reseñas, por ejemplo.

Basta ver un atisbo de las capacidades del GPT2 en The Guardian, que pudo probar mínimamente el invento, para advertir sus riesgos. A partir de solo un titular o frase de inicio, detecta el estilo del texto (periodístico, novelado, distópico), su tesis y línea ideológica, y genera un texto impecable, incluso citas falsas si procede. Para ello, el algoritmo de OpenAI se ha alimentado del estilo y argumentos de 10 millones de artículos que obtuvieron más de tres votos en la plataforma Reddit.

Un 'aprendizaje' de 40 GB en textos que supera ampliamente al de sus antecesores y en el que está precisamente una de las raíces del problema en algoritmos. Para enseñar a la inteligencia artificial a comportarse como nosotros hay que alimentarla con millones de textos, datos, valoraciones... (o lo que sea, dependiendo del uso) realizados por humanos. Y ellos nos imitan en todo, incluyendo el estilo sensacionalista y argumentos torticeros de los textos que proliferan en la red; o los sesgos machistas/racistas en el caso de los algoritmos que filtran candidatos para un trabajo o un préstamo bancario. La culpa –también aquí– es de los padres.

Mostrar comentarios

Códigos Descuento