Un robot que es "consciente" de su entorno e interacciona con humanos

Compartir el trabajo con un robot es uno de los objetivos que persigue el consorcio europeo que participa en el proyecto EYESHOTS. Durante los próximos 3 años, los cinco socios, entre los que se encuentra la Universitat Jaume I, desarrollarán un sistema de visión en 3D integrado con un brazo articulado mediante los cuales un robot podrá percibir y tomar conciencia de su entorno, predecir movimientos humanos y actuar en consecuencia.

Un robot que es "consciente" de su entorno e interacciona con humanos

EYESHOTS “Heterogeneous 3-D Perception Across Visual Fragments” es un proyecto de 3 años y está financiado por la Comisión Europea dentro del 7º Programa Marco. Coordinado por la Universidad de Génova (Italia), participan la UJI, la Universidad Westfälische Wilhems (Alemania), la Universidad de Bologna (Italia), y la Universidad Católica de Leuven (Bélgica). Cuenta con un presupuesto de 2.400.000 euros, de los cuales 374.500 euros se han destinado a la UJI, y está previsto que finalice en marzo de 2011.

La investigación pretende profundizar en la interacción existente entre el control de la visión y el movimiento y estudiar cómo explotar esta relación para alcanzar un conocimiento del entorno que permita a un robot actuar adecuadamente. Se abordarán temas cruciales en la robótica pero que a fecha de hoy no se han resuelto como son el reconocimiento de objetos, el cambio dinámico de atención y la percepción del espacio en 3D.

La investigación parte de la suposición de que a través de la exploración mediante los ojos y los brazos, el robot adquiere una percepción global del espacio visual que le permitirá comprender las acciones humanas en una zona de trabajo común y modificar sus propias acciones. Para ello, se considerarán tres elementos claves: el sistema oculomotor que consiste en una cabeza de robot con ojos móviles y cuello fijo, un brazo robótico dotado de un sistema de agarre basado en la visión y un sistema de rastreo visual y táctil.

La cabeza robótica dispondrá de un sistema binocular y unos sensores que simularán redes neuronales humanas y permitirán la exploración del espacio tridimensional en tiempo real. El proyecto propone aplicar el concepto de fragmentación visual que consiste en la interacción de diferentes componentes y su sintonización a la hora de realizar una tarea, en lugar de la representación frontal del entorno.

El robot, a partir de las señales que recibe, hace una representación de su entorno que se irá actualizando a medida de que cambie su situación. El agente robótico es capaz de tener en su punto de mira un objeto sin perder la conciencia de lo que le rodea y puede solicitar movimientos de brazos para interactuar con objetos de su entorno inmediato. Pero además, podrá detectar las acciones de su compañero humano, predecir sus movimientos futuros y reaccionar.

El escenario futuro de aplicación es un robot humanoide doméstico que entra en una habitación desconocida y mediante movimientos sacádicos de sus ojos y cabeza adquiere en unos segundos "consciencia" de su entorno para poder realizar tareas que incluyan abrir y cerrar puertas, coger y dejar objetos, etc.

Fuente: RUVID
Derechos: Creative Commons
Artículos relacionados