Este juego online te reta a engañar a la Inteligencia Artificial con tu cara

El sitio web Emojify demuestra la tecnología de reconocimiento de emociones de IA.
El sitio web Emojify demuestra la tecnología de reconocimiento de emociones de IA.
Universidad de Cambridge

La tecnología diseñada para identificar las emociones humanas mediante algoritmos de aprendizaje automático es una industria enorme, y en 20BITS hemos publicado diversos artículos sobre productos que facilitan la vida a las personas en muchos ámbitos. Aun así, los críticos dicen que esta tecnología genera preocupaciones sobre la privacidad, es inexacta y tiene prejuicios raciales.

Por eso un equipo de investigadores ha creado un sitio web llamado Emojify.info, donde el público puede probar sistemas de reconocimiento de emociones a través de sus propias cámaras del ordenador. El juego se centra en poner caras para engañar a la tecnología, mientras que otro explora cómo estos sistemas pueden tener dificultades para leer las expresiones faciales en contexto.

Su intención, según los creadores, es crear conciencia sobre la tecnología y promover conversaciones sobre su uso: "Es una forma de reconocimiento facial, pero va más allá porque, en lugar de solo identificar a las personas, pretende leer nuestras emociones, nuestros sentimientos internos en nuestros rostros", dijo la Dra. Alexa Hagerty, líder del proyecto e investigadora de la Universidad de Cambridge Leverhulme.

El año pasado, la Comisión de Igualdad y Derechos Humanos dijo que su uso para la detección masiva debería detenerse, diciendo que podría aumentar la discriminación policial y dañar la libertad de expresión; pero Hagerty asegura que muchas personas no eran conscientes de lo comunes que eran los sistemas de reconocimiento de emociones.

El uso del reconocimiento de las emociones 

Esta tecnología se utiliza en todo el mundo, desde Europa hasta Estados Unidos y China. Comúnmente son empleados en situaciones que van desde la  contratación de un trabajo hasta el trabajo de conocimiento del cliente, la seguridad del aeropuerto e incluso la educación para ver si los estudiantes están comprometidos o haciendo su tarea. 

De hecho, Taigusys es una empresa que se especializa en sistemas de reconocimiento de emociones y dice que los han utilizado en entornos que van desde residencias de ancianos hasta prisiones. Por otro lado, la ciudad india de Lucknow plantea utilizar la tecnología para detectar la angustia en las mujeres como resultado del acoso, una medida que ha recibido muchas críticas.

El mundo ha entrado en una fase en la que la inteligencia artifical será epicentro de casi todas nuestras actividades diarias.
El mundo ha entrado en una fase en la que la inteligencia artifical será epicentro de casi todas nuestras actividades diarias.
PANDA

Hagerty afirma que la tecnología de reconocimiento de emociones podría tener algunos beneficios potenciales, pero está claro que deben contrastarse con las preocupaciones sobre la precisión, el sesgo racial y si realmente esta tecnología es la herramienta adecuada para un trabajo en particular.

Prueba tú mismo la tecnología de reconocimiento de emociones

El sitio señala que "no se recopilan datos personales y todas las imágenes se almacenan en su dispositivo". En un juego, se invita a los usuarios a hacer una serie de caras para fingir emociones y ver si engañan al sistema.

“La afirmación de las personas que están desarrollando esta tecnología es que está leyendo la emoción”, dijo Hagerty. Aunque en realidad el sistema estaba leyendo el movimiento facial y luego combinando eso con la suposición de que esos movimientos están vinculados a las emociones, por ejemplo, una sonrisa significa que alguien es feliz.

Algunos se cuestionan los beneficios de esta tecnología

Vidushi Marda, oficial senior de programas de la organización de derechos humanos, dijo que debíamos poner en pausa en el creciente mercado de sistemas de reconocimiento de emociones:

“El uso de tecnologías de reconocimiento de emociones es profundamente preocupante, ya que estos sistemas no solo se basan en una ciencia discriminatoria y desacreditada, sino que su uso también es fundamentalmente incompatible con los derechos humanos”.

Espero que seas capaz de engañar a la inteligencia artificial en Emojify. Yo he probado todas las emociones y no he sido capaz de conseguir que la inteligencia me detectase la emoción del miedoY tú, ¿Qué opinas al respecto? 

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento