ChatGPT ya sabe parecer más humano que los humanos

Ilustración inspirada en ChatGPT.
Ilustración inspirada en ChatGPT.
pxhere / Dominio público
Ilustración inspirada en ChatGPT.

Sé que lo más correcto sería decir que las redes sociales nos han aportado grandes servicios y blablablá. En lo que concierne a la ciencia, no se puede negar que Twitter abrió un nuevo canal de comunicación que muchos científicos utilizan habitualmente para el intercambio rápido de ideas y resultados. Pero para esto realmente no se necesita una red social abierta al mundo, sino que basta, y sobra, con otra estructurada en círculos de especialización.

No puede valorarse objetivamente si los perjuicios de las redes sociales superan a los beneficios. Pero los perjuicios están muy contrastados: son muchos los estudios que han analizado la propagación de los bulos y la desinformación en internet, y algunos han encontrado una correlación entre el nivel de uso de las redes sociales y la creencia en los bulos que se extienden a través de ellas, sobre todo en personas poco preparadas para distinguir la información auténtica de la falsa. Es decir, que el ser humano no es inmune a la exposición a las patrañas, y el gota a gota acaba calando.

Bajando de lo general a lo anecdótico, en días pasados asistimos a un interesante experimento involuntario en Twitter. Una cuenta que parodia a un personaje político publicó un par de tuits completamente absurdos que sin embargo muchos usuarios tomaron como reales, a pesar de que el nombre de la cuenta aclara que es “fake” y el handle (@...) tiene un error ortográfico deliberado.

Otro ejemplo, este personal: una amiga, química de formación pero no de profesión (y que no sigue las noticias de ciencia), usuaria de Twitter no especialmente propensa a la conspiranoia, cayó en la trampa de que el coronavirus de la COVID-19 fue creado en un laboratorio chino. Curiosamente, le llegó la desinformación, pero no la información que la rebatía, a pesar de que, si bien ambas estaban en Twitter, solo la información se publicó además en los medios (y no es de esas personas alérgicas a los medios).

Cada vez más gente y con mayor frecuencia cae en el error de confundir bulo con información

Cada uno podrá dar a todo esto la importancia que le parezca. Pero no puede negarse que tenemos un problema. Uno al que nadie sabe cómo hincar el diente. Expertos y científicos sociales están sobre ello intensamente, y hay muchas propuestas, ideas, sugerencias y conjeturas. Pero aún nadie ha encontrado el modo de atajar una tendencia alarmante: cada vez más gente y con mayor frecuencia cae en el error de confundir bulo con información, ficción con realidad.

La moderación restrictiva a ultranza, vulgo censura, no solamente es ineficaz en la práctica, sino que además no gusta a mucha gente. Es decir, no importaría si únicamente molestara a quienes fabrican y propagan bulos, o a quienes difunden y aplauden el odio. Pero tampoco gusta a muchos usuarios respetuosos, responsables y razonables. Tampoco todos apoyamos la llamada cultura de la cancelación, que extiende los deméritos de la persona a la eliminación de su obra (personalmente, entre la música que me gusta escuchar se cuenta incluso algún asesino convicto).

Diferenciar a la máquina de nosotros

Y si puede haber, que lo habrá, a quien todo esto aún le importe un ardite, sepan que las cosas van a ponerse aún más complicadas para distinguir la realidad de la ficción, y ello debido a otra razón llamada ChatGPT. Se ha escrito y publicado mucho sobre este modelo grande de lenguaje que no solo es capaz de hacerse pasar por una persona en muchas circunstancias, algo para lo que ha sido entrenado, sino también de aprobar exámenes para los que no ha sido entrenado, como ya conté aquí. Y de hacer trabajos escolares, universitarios, científicos…

ChatGPT ha supuesto para muchas personas un encuentro con algo que hasta entonces estaban utilizando sin saberlo: la Inteligencia Artificial (IA) está presente en infinidad de aplicaciones y utilidades que usamos a diario a través del móvil, el ordenador o ese aparato junto a la tele que responde cuando le hablamos. Incluso en el aspirador: el Roomba fue, de hecho, el primer cacharro que llevó la IA a los hogares. Pero en estos casos parece que la frontera de la máquina está bien definida; sabemos dónde acaban sus funciones y su mundo, y dónde comienzan los nuestros. Sabemos diferenciar a la máquina de nosotros mismos.

Y es curioso, porque esto suele aplicarse también a la ciencia ficción. Si pensamos en lo mucho que el cine, las series, los libros o los cómics nos han acostumbrado a la idea de la IA, generalmente esta frontera ha estado bien delimitada. Por tirar de clásicos, desde los robots de Asimov hasta HAL 9000, la interacción con la máquina siempre se producía de modo que los humanos podían distinguirla claramente: el robot tiene un cuerpo, o al menos un ojo (HAL), habla con voz metálica, demasiado perfecta o antinatural de alguna otra manera.

Pero todo esto se ha roto con ChatGPT. No tiene cuerpo, ni siquiera un ojo. No habla, escribe. Y lo que escribe, que puede llegar a nosotros a través de infinidad de terminales distintos —esto es algo en lo que casi toda la ciencia ficción pre-internet se equivocó, identificar el sistema con una máquina física—, es algo que no podemos distinguir de lo real.

Esto último es precisamente lo que revela un nuevo estudio publicado en PNAS por tres investigadores de las universidades de Cornell y Stanford. A través de seis experimentos con un total de 4.600 participantes, han evaluado la capacidad de los voluntarios de diferenciar entre perfiles personales de presentación online, como los de una solicitud de empleo o una web de citas, escritos por un humano o por un sistema de IA similar a ChatGPT.

Somos manipulables

El resultado: no somos capaces de distinguirlos. Los autores descubren que la mayoría de la gente hace una interpretación errónea de las pistas. Por ejemplo, los voluntarios tienden a atribuir el texto a un humano cuando se utiliza el “yo”, cuando hay referencias a experiencias pasadas o cuando se habla de la familia. Todo ello, dicen los investigadores, aparece con la misma frecuencia en los textos generados por la IA que en los humanos. Es más, según los autores, el sistema de IA aprende cuáles son estas debilidades nuestras y las explota para producir “textos que se perciben como más humanos que los humanos”, escriben.

En otras palabras, añaden los autores, la IA aprende rápidamente que somos predecibles. Y que, por lo tanto, somos manipulables. Y sabe cómo manipularnos.

(Breve pausa dramática)

Es decir, que ya no solo pueden confundir a la gente los bulos creados por otra gente. Sino también cualquier cosa creada por una IA capaz de hacer que su creación parezca más humana que las humanas.

Los autores del estudio escriben que esto “influirá en la confianza en la comunicación” e introducirá “nuevas formas de engaño y manipulación”. Y que necesitamos encontrar el modo de defendernos de esto, “reorientar el desarrollo de los sistemas de lenguaje por IA para asegurar que apoyen en lugar de socavar la cognición humana”. Para ello sugieren opciones como diseñar los sistemas para que respeten ciertas reglas que permitan distinguir claramente que son máquinas. Por ejemplo, “acentos”, en el sentido de ciertos estándares de lenguaje que sean reconocibles. Algo así como el equivalente escrito de la típica voz de computadora de las películas antiguas.

Otra cosa es que los desarrolladores de programas de IA estén dispuestos a autolimitarse de este modo, sin una regulación que les obligue a ello. Ya estamos llegando tarde.

Mostrar comentarios

Códigos Descuento