¿Pueden las 'máquinas' realmente sentir? La suspensión fulminante de un ingeniero en Google desata las especulaciones

No hay evidencias de que el sistema de Google fuese consciente.
No hay evidencias de que el sistema de Google fuese consciente.
©[rawpixel.com] via Freepik.com.
No hay evidencias de que el sistema de Google fuese consciente.

El pasado 11 de junio, Blake Lemoine (ingeniero de Google) fue acusado de violar la política de confidencialidad de la compañía tras afirmar que su programa de inteligencia artificial (IA) podía tener sentimientos.

El empleado hizo pública la transcripción de una conversación que mantuvo con el sistema de Google LaMDA (“Modelo de lenguaje para aplicaciones de diálogo” por sus siglas en inglés) bajo el nombre “¿Tiene LaMDA sentimientos?”.

Dicha tecnología afirmó que en ocasiones experimenta nuevos sentimientos que no puede explicar con el lenguaje humano, sin embargo, Google defendió que sus sistemas no tienen conciencia, imitan conversaciones y son capaces de hablar sobre cualquier tema.

Tras esta situación, ¿es posible que una inteligencia artificial pueda generar emociones? 

Ezequiel Paura (Lead Data Scientist en Keepler Data Tech) afirma para 20Bits que “la respuesta es un rotundo no, los modelos de lenguaje natural que conocemos hoy en día no son ni serán capaces de sentir o ser conscientes”.

El experto señala que “los modelos de lenguaje natural no se desarrollan en un contexto natural, sino en uno observacional. Los modelos ‘ven’ como otras personas se comunican y lo imitan”.

"No hay pruebas suficientes para decir que tienen emociones"

Algunas fuentes de The Valley consultadas por 20minutos opinan lo mismo: "Conseguir un algoritmo que copie la manera en la que se producen las emociones todavía queda lejos". Según explican, los modelos como LaMDA son "incapaces de introducir ideas o cambiar el rumbo del diálogo, por lo que no hay pruebas suficientes para decir que tienen emociones".

Los especialistas en ética y tecnólogos de Google revisaron las preocupaciones de Lemoine según los Principios de IA, además, informaron que la evidencia no respaldaba sus afirmaciones porque no había evidencias de que LaMDA fuera consciente.

Paura concluye que “más allá de cómo los individuos aprenderemos a conceptualizar lo que estos sistemas hacen, lo que está claro es que es necesaria la regulación y mejores prácticas de diseño para los sistemas de IA, para hacerlos más transparentes”.

Los expertos de The Valley aseguran que, en un futuro, podría barajarse la posibilidad de que las IA "sean capaces de detectar emociones y responder según estas". A pesar de ello, reconocen que sería "muy complicado" que desarrollasen una verdadera inteligencia emocional. 

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento