El reconocimiento facial de Google será más inclusivo: la empresa trabaja en la detección de nuevos tonos de piel

Google está trabajando en una escala de tonos de piel para ser más inclusivos.
Google está trabajando en una escala de tonos de piel para ser más inclusivos.
Getty Images/iStockphoto
Google está trabajando en una escala de tonos de piel para ser más inclusivos.

Cada vez más, desbloquear nuestro móvil con el reconocimiento facial es un gesto de lo más común. Este tipo de reconocimiento se da en muchas situaciones en el mundo actual en el que vivimos, pero lo cierto es que no es el único.

Hay gran cantidad de reconocimientos de imágenes que van mucho más allá del facial como los procedimientos que reconocen en una determinada imagen que hay un árbol, un perro o un coche además de otros muchos elementos.

A la hora de reconocer personas también hay más métodos como por ejemplo, un tipo de programa informático que reconoce a una persona en una imagen sin realmente conocer la identidad de esta persona.

Uno de los principales problemas a los que se han enfrentado algunas destacadas empresas como Google es la hora de reconocer y clasificar a las personas de piel más oscuras que han llegado incluso a catalogar como simios.

En el año 2015 se produjo uno de los casos más sonados al respecto en Google, pero hace apenas un año, Facebook también tuvo problemas e incluso Twitter, cuyo algoritmos de detección de personas resaltaba a aquellas de piel blanca.

Recientemente, en mayo de 2022, Google hizo un importante anuncio y es que estaban colaborando con Ellis Monk, un profesor y sociólogo de Harvard con el objetivo de ser mucho más inclusivos en lo que respecta a los tonos de piel.

El profesor Monk diseñó una escala de diez tonos de piel distintos que fueran “representativos” y más especialmente de las personas de piel más oscura. La denominada escala MST ayudará a “crear conjuntos de datos más representativos” escribió Tulsee Doshi, jefe de Producto e Inteligencia de Google.

Además, Doshi añadió que así se podrán “entrenar y evaluar los modelos de inteligencia artificial en equidad, que resultara en funcionalidades y productos que funcionen mejor para todos y para todos los tonos de piel”.

Esta escala la utilizarán principalmente para poder mejorar los modelos de inteligencia artificial que detectan los rostros de las imágenes y según ha asegurado Google, la utilizaran en algunos de sus productos como la búsqueda de imágenes de Google o en ‘Photos’, el programa de almacenamiento de imágenes de Android.

La ex investigadora Timnit Gebru ya trabajó en este proyecto antes de ser despedida por Google tras señalar que al desarrollar estas tecnologías no se tenían en consideración los fallos que tenían hacia las personas negras.

A través de su cuenta de Twitter ha asegurado que fue ella la que introdujo en Google el trabajo de Monk y este caso desembocó en una polémica a nivel mundial.

El reconocimiento de imágenes puede calificar en ocasiones de manera errónea a las personas y sobre todo aquellas de piel más oscura y según Javier Sánchez, investigador de inteligencia artificial en la Universidad de Córdoba, asegura que “el problema de base de cuando se dice que la IA es racista viene de reconocer la existencia de la raza a nivel fenotípico”.

Con la implementación de esta escala, esclarece el especialista, se sabrá que el problema de estas tecnologías es el binarismo que solo asocia la existencia de personas blancas o negras.

De momento Google no se ha pronunciado mucho más al respecto así que tendremos que ver si con esto se soluciona el problema de reconocimiento facial y conocemos, por lo tanto, el procedimiento que se utiliza ahora mismo.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento