Realidad aumentada para ayudar a los operadores de drones

Una herramienta de realidad aumentada desarrollada por investigadores de la Universidad Politécnica de Madrid mejora la toma de decisiones de los operadores de drones. El sistema incluye en una única pantalla un vídeo cuya información está orientada a cubrir dos necesidades: el seguimiento del plan de vuelo del vehículo aéreo no tripulado y la identificación de objetivos.

UPM
Imagen del vídeo resultante del sistema de realidad aumentada en el que se resaltan la ruta de navegación prevista y los objetivos. / UPM

El incremento de la popularidad de los drones ha sido notorio en los últimos años gracias a la aparición de nuevas plataformas y a la gran difusión que han tenido. Existen diversos modelos y tamaños, pero la característica que la mayoría comparten es que van equipados con un sensor clave para su éxito: la cámara.

Gracias a ella, los vehículos aéreos no tripulados (UAVs) han ido sustituyendo a los sistemas tripulados como medio para la obtención de vídeo para distintas tareas, por ejemplo, la vigilancia. Además, los drones han permitido utilizar imágenes aéreas en otros campos en los que tradicionalmente no se usaban, como en la inspección de estructuras.

El tamaño de la plataforma determina, en parte, el tipo de tarea para la que sirve y por consiguiente la ayuda que necesita el operador del UAV. Se puede hacer una distinción entre los drones para los que no hace falta haber pilotado anteriormente una aeronave, y los que sí, que son aquellos que van orientados a sustituir los vehículos tripulados. Estos últimos requieren el uso de estaciones de tierra de cierta envergadura para su control.

En las estaciones de tierra los operadores reciben mucha información (plan de vuelo de la misión, posiciones de interés, vídeo de la cámara embarcada, etc.) que se les muestra en diferentes pantallas. Esta forma de presentar la información hace que los operadores, para interpretar de manera adecuada lo que está ocurriendo en cada momento, tengan que fusionar toda la información lo más rápido posible, lo que aumenta su estrés y dificulta la toma decisiones.

Esta herramienta ha sido diseñada de acuerdo a los estándares de la Organización del Tratado del Atlántico Norte (OTAN) para este tipo de estaciones de tierra

Así, para mejorar la conciencia de situación de los operadores de UAVs, en el Grupo de Tratamiento de Imágenes adscrito a la ETS de Ingenieros de Telecomunicación de la Universidad Politécnica de Madrid (UPM), han creado una herramienta de realidad aumentada adaptada a estas estaciones de tierra.

Información en una única pantalla

"La herramienta permite, gracias a la fusión de información, presentar en una única pantalla el flujo de vídeo capturado por el UAV enriquecido con elementos virtuales. Estos elementos virtuales aportan información relevante para que el operador pueda llevar a cabo su misión con éxito”, explican los investigadores.

El sistema de realidad aumentada incluye en el vídeo información orientada a cubrir dos necesidades: el seguimiento del plan de vuelo del UAV y la identificación de posiciones relevantes (objetivos). La primera permite al operador conocer la dirección de vuelo y las posiciones por las que va a pasar el UAV mientas maneja la cámara. La segunda le permite identificar las posiciones de interés que deben vigilar y, además, distinguir si están o no enmascaradas por el terreno.

Este trabajo se enmarca dentro del proyecto SAVIER (Situational Awareness Virtual EnviRonment) Open Innovation de Airbus, cuyo objetivo es mejorar la conciencia de situación de los operadores de UAVs y las interfaces hombre-máquina de las estaciones de tierra. Esta herramienta ha sido diseñada de acuerdo a los estándares de la Organización del Tratado del Atlántico Norte (OTAN) para este tipo de estaciones de tierra y probada en un demostrador en las instalaciones de Airbus en Getafe.

Referencia bibliográfica:

Ruano, S.; Cuevas, C.; Gallego, G.; García, N. "Augmented Reality Tool for the Situational Awareness Improvement of UAV Operators". Sensors 17 (2): 297 febrero de 2017

Fuente: Universidad Politécnica de Madrid
Derechos: Creative Commons
Artículos relacionados