Saltar al contenido

Hace unos días el mundo publicó un artículo sobre un robot controlado gestualmente. El robot es capaz de seguir a un operador humano en espacios interiores y exteriores y entiende órdenes gestuales y verbales simples. El éxito de la universidad de brown con éste robot es conseguir que el reconocimiento de imágenes funcione en diferentes condiciones de iluminación, sin que el operador tenga que llevar ropa especial y además parece que funciona en un portátil convencional. En el artículo original de la universidad de Brown, mencionan que utiliza un sensor de infrarrojo para mantener la distancia con el operador. Sobre el sistema de visión artificial dicen que funciona analizando la silueta del operador, de la que extrae los diferentes gestos y los convierte en instrucciones.

La idea es interesante desde el punto de vista del control del robot y sobretodo me interesa por la unión entre órdenes verbales y órdenes gestuales. Me pregunto si en algún momento podrán unificar ámbos sistemas para dar órdenes combinadas. Por ejemplo, levantar una palma para especificar que ejecute una orden más despacio para no hacer ruido.

El funcionamiento de este robot se puede relacionar con la fatiga cognitiva que aparece en la teleoperación, ya que el objetivo del proyecto según Chad Jenkins, el profesor que lidera el proyecto, es que el robot no se comporte como una marioneta y sea fácil de controlar.

Estaba repasando un video antiguo sobre control gestual, bastante interesante que trata sobre un ejemplo de control gestual basado en una webcam, que están realizando en los laboratorios de Microsoft. Se trata un experimento relativamente sencillo, el programa analiza las formas que hay en una imagen captada en una webcam y al hacer un círculo con tus dedos, puedes arrastrar y hacer acciones de ratón en el escritorio.

El control gestual tiene posibilidades de desarrollarse cómo alternativa al control táctil. Aunque por la disposición de la cámara, el control táctil puede tener más sentido en teléfonos móviles y ordenadores portátiles pequeños,  el control gestual parece más apropiado para ordenadores de escritorio y quizá para portátiles grandes, dado que es más fácil determinar la posición de la webcam y encontrar las mános del usuario.

Aún así, el control gestual visual, podría mejorarse si no sólo se tiene en cuenta la imagen sino también el sonido, aunque desconozco si se está investigando en esta línea (en robótica se conoce como fusión sensorial). En el ejemplo del vídeo, me planteaba si pudiendo dar golpecitos en el escritorio, que no son muy diferenciables mediante la imagen, la detección podría mejorarse mediante el sonido (el "tap" de los dedos en una mesa me parece un sonido bastante distinguible).

Se puede leer en engadget, que en la universidad de Tokyo, Tsuyoshi Horo ha desarrollado un sistema para controlar de forma gestual un robot. Un array de cámaras permite contruir un modelo en 3D de las personas presentes en el campo de visión. Gracias a este modelo, se pueden analizar los gestos del usuario y enviar órdenes a un robot. Es bastante interesante este tipo de desarrollos, ya que mejorando la usabilidad en la robótica, es la forma de encontrar la killer application que lance este campo.
El robot es curioso también por el tipo de ruedas que utiliza, omnidireccionales que parece que se están empezando a emplear bastante. Por ejemplo las usa wowwee en rovio.