Un robot asistencial aprende a mover sus brazos para poner y quitar la mesa observando a los humanos

Una nueva técnica de aprendizaje por imitación permite que un autómata desarrollado por la Universidad Carlos III de Madrid adquiera movimientos más precisos y adaptativos. El avance mejora su capacidad para realizar tareas domésticas de manera fluida y segura.

robot ADAM, tareas domésticas
El robot ADAM emplea aprendizaje por observación para reproducir tareas domésticas con mayor naturalidad. / UC3M

Investigadores de la Universidad Carlos III de Madrid (UC3M) han desarrollado una nueva metodología para que un robot aprenda por sí solo a mover sus brazos mediante la combinación de un tipo de aprendizaje por observación y la intercomunicación de sus extremidades.

Este avance, presentado recientemente en el congreso de robótica más importante del mundo, el IROS2025, supone un paso más para conseguir robots de servicio más naturales y fáciles de enseñar que puedan realizar tareas asistenciales en entornos domésticos, como poner y quitar la mesa, planchar u ordenar la cocina.

Puede poner la mesa y recogerla, ordenar la cocina o acercar al usuario un vaso de agua o las medicinas a la hora indicada. También, ayudarle cuando va a salir, acercándole un abrigo o una prenda de ropa

Alicia Mora (UC3M)

La investigación aborda uno de los problemas más complejos de la robótica actual: la coordinación de dos brazos que trabajan juntos. En la UC3M lo están haciendo utilizando el robot ADAM (Autonomous Domestic Ambidextrous Manipulator), que ya es capaz de realizar tareas asistenciales en entornos domésticos. “Puede, por ejemplo, poner la mesa y recogerla después, ordenar la cocina o acercar al usuario un vaso de agua o las medicinas a la hora indicada. También puede ayudarle cuando va a salir, acercándole un abrigo o una prenda de ropa”, explica Alicia Mora, una de las investigadoras del Mobile Robots Group del Robotics Lab de la UC3M que trabaja en el proyecto.

ADAM ha sido construido para ayudar a las personas mayores en sus tareas cotidianas dentro de sus casas o en residencias, explica el director del Mobile Robots Group, Ramón Barber, catedrático de Ingeniería de Sistemas y Automática de la UC3M: “Todos conocemos personas para las que gestos tan simples como que alguien les acerque un vaso de agua con una pastilla o les ponga la mesa suponen una ayuda muy importante. Ese es el objetivo principal de nuestro robot”.

Aprendizaje de imitación

Los investigadores presentaron en el IROS 2025 un método que enseña a cada brazo del robot a aprender su tarea por separado mediante aprendizaje por imitación y a coordinarse después mediante Propagación de Creencias Gaussianas, “un diálogo invisible” que evita choques y genera movimientos más naturales. Esta técnica supera las limitaciones de la simple copia de gestos humanos y permite adaptar trayectorias “como una goma elástica” cuando cambia la posición del objetivo.

ADAM funciona en tres fases —percepción, razonamiento y acción— y combina sensores láser, cámaras RGB‑D y modelos tridimensionales del entorno para interpretar objetos y anticipar necesidades del usuario

ADAM funciona en tres fases —percepción, razonamiento y acción— y combina sensores láser, cámaras RGB‑D y modelos tridimensionales del entorno para interpretar objetos y anticipar necesidades del usuario. El equipo trabaja ahora en integrar modelos generativos que faciliten que el robot entienda mejor el contexto.

Aunque todavía es experimental, los investigadores creen que tecnologías así podrían llegar a los hogares en una década. Su desarrollo se enmarca en un reto social creciente: “Cada día hay más personas mayores y menos personas que puedan atenderlas, por lo que este tipo de soluciones van a ser cada vez más necesarias”, señala Barber.

Referencias bibliográficas:

A. Prados, G. Espinoza, L. Moreno, R. Barber. "Coordination of Learned Decoupled Dual-Arm Tasks through Gaussian Belief Propagation", 2025 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Hangzhou, China, 2025, pp. 15917-15924, doi: 10.1109/IROS60139.2025.11246414. e-archivo UC3M: https://hdl.handle.net/10016/49244

Mora A, Prados A, Mendez A, Espinoza G, Gonzalez P, Lopez B, Muñoz V, Moreno L, Garrido S, Barber R (2024). ADAM: a robotic companion for enhanced quality of life in aging populations. Front. Neurorobot. 18:1337608. doi: 10.3389/fnbot.2024.1337608. e-archivo UC3M: https://hdl.handle.net/10016/46290

Fuente:
UC3M
Derechos: Creative Commons.
Artículos relacionados