Investigadores crean un sistema de visión artificial para integrar en un robot social

El grupo de investigación que dirige el profesor de la Universidad de Málaga (UMA) Antonio Jesús Bandera Rubio desarrolla un proyecto de excelencia enmarcado en la robótica de servicio, que constituye un sistema de visión artificial para integrar en un robot social y que puede aportar una ayuda en la asistencia a personas con discapacidad.

El grupo de investigación que dirige el profesor de la Universidad de Málaga (UMA) Antonio Jesús Bandera Rubio desarrolla un proyecto de excelencia enmarcado en la robótica de servicio, que constituye un sistema de visión artificial para integrar en un robot social y que puede aportar una ayuda en la asistencia a personas con discapacidad.

En una nota, Andalucía Innova informa de que 'Arquitectura Visual Basada en Percepción Activa' es el nombre de este estudio, incentivado con 206.000 euros por la Consejería de Economía, Innovación y Ciencia de la Junta de Andalucía. Así, su objetivo es desarrollar un sistema perceptivo visual artificial, "muy influenciado en alguna de sus fases por el que presentamos las personas, así como evaluarlo en dos aplicaciones: la interacción con humanos y la navegación autónoma".

"De momento, hemos desarrollado un importante conjunto de funcionalidades que se integran en un sistema 'software' de percepción, orientado a la interacción con personas y a la detección de marcas visuales para navegación", expone Bandera.

Este sistema perceptivo se integraría, desde una perspectiva más general, "en un robot social, es decir, que comparte su entorno con personas y que exhibe un comportamiento socialmente correcto: te mira a los ojos cuando le hablas o te saluda si te lo cruzas, entre otros", indica el profesor Bandera, que aclara que trabajan en una cabeza robótica expresiva ('Muecas'), en colaboración con la Universidad de Extremadura.

No obstante, el sistema podría emplearse en cualquier robot de servicio, "bien con aspecto más o menos humanoide, o bien tipo silla motorizada o plataforma robótica", explica el responsable del proyecto.

De un modo más concreto, los investigadores de la UMA pretenden crear una arquitectura perceptiva, que dotaría al robot o cabeza robótica en que se instalara de una gran autonomía y capacidad de interacción. Así, se usaría un único sistema sensorial, consistente en un par de cámaras estéreo paralelas previamente calibradas.

Esta arquitectura se descompone en cuatro módulos perceptivos de bajo y medio nivel, que deben proporcionar la información necesaria para: permitir la autolocalización local del robot; evitar obstáculos; construir el mapa del entorno usando marcas naturales y proporcionar la capacidad de localización y global; y detectar la presencia de un usuario y reconocerlo, interpretando posibles comandos que éste pueda darle por reconocimiento de gestos manuales. Los científicos están trabajando ahora en cómo evitar obstáculos, ya que los otros tres puntos ya los han logrado. MÓDULOS 'SOFTWARE' CREADOS

Como indica el responsable del proyecto, el desarrollo del sistema perceptivo de visión artificial "se basa en crear una serie de módulos 'software' que aportan funcionalidades muy concretas". Por el momento, se ha logrado ya un sistema de atención, que permite seleccionar de la escena aquellos elementos que destacan, bien por su color o contraste con respecto a los colores de las regiones que los rodean, o por su relevancia para que se realicen ciertas tareas.

También, se han logrado funcionalidades que permiten detectar la presencia de una persona, extraer su silueta y reconocer gestos dinámicos que se realicen con ambas manos, como por ejemplo, decir 'hola'. Otro aspecto ya conseguido es la obtención de funcionalidades que permiten detectar la presencia de objetos llamativos (por su color o contraste con el fondo), que se usan como marcas visuales en un sistema de navegación para un robot móvil.

Además, se ha estudiado cómo usar esta información para crear mapas del entorno que explora, y donde desarrollará su actividad el robot. También, se ha analizado cómo dividir dicho mapa en zonas.

"En este sentido, el sistema implementado es capaz de detectar automáticamente estos cambios. La idea es que, en función de dónde se esté (cocina, salón, etc.), se encuentre ciertos objetos y se desarrollen ciertas funciones. Eso permite mejorar la eficiencia de los algoritmos y es algo que las personas también hacemos de forma intuitiva", explica Bandera.

Por último, el equipo ha creado un sistema de bajo coste computacional, que permite que el robot pueda tener una estimación de cuánto se va moviendo (odometría visual). Se trata de una forma de cuantificar en qué medida se cumplen las órdenes de movimiento ejecutadas.

"La idea es ampliar este conjunto de funcionalidades para incluir la evitación de obstáculos, entendiéndola también como una tarea reactiva, que se realiza rápido y sin pensarlo", señala Bandera. "Ya tenemos una propuesta que funciona muy bien con datos de distancia a obstáculos obtenidos de un sensor láser", añade.

De la robótica a la rehabilitación

Un aspecto que plantean los científicos malagueños y que forma parte de la interacción hombre-máquina es la posibilidad de que el sistema desarrollado pueda identificar quién es la persona que tiene delante, qué está haciendo y cómo lo está haciendo, y que incluso pueda reconocer cuál es su estado interno.

En este sentido, el equipo está desarrollando una nueva propuesta. "La idea es trabajar en una terapia para neurorehabilitación en la que, como innovación, aparecerá un robot socialmente interactivo, con capacidades para tratar, por ejemplo, con pacientes con deficiencias motoras en sus miembros superiores", indica el responsable.

Este trabajo se haría en colaboración con investigadores de las universidades de Jaén, Extremadura y Carlos III de Madrid, el Centro Andaluz de Innovación y Tecnologías de la Información y las Comunicaciones (Citic) y el Hospital Universitario Virgen del Rocío.

Mostrar comentarios

Códigos Descuento