Científicos de la Universidad Carlos III de Madrid (UC3M) y la Universidad de Granada (UGR) desarrollan un nuevo sistema informático que permite a una máquina reconocer automáticamente el estado de ánimo de una persona que se está comunicando oralmente con ella.
El sistema creado por estos investigadores puede emplearse para adaptar automáticamente el diálogo a la situación del usuario, adecuando la respuesta de la máquina al estado de ánimo de la persona. "Gracias a este nuevo avance, la máquina podrá determinar cómo se siente el usuario (emoción) y cómo pretende continuar con el diálogo (intención)", explica uno de sus creadores, David Griol, profesor del Departamento de Informática de la UC3M.
Para detectar el estado emocional del usuario, los científicos se han centrado en las emociones negativas que pueden hacer que se frustre al hablar con un sistema automático. En concreto, su trabajo considera el enfado, el aburrimiento y la duda. Para detectarlas automáticamente, se utiliza información sobre el tono de voz, la velocidad con la que se habla, la duración de las pausas, la energía de la señal de voz y así hasta un total de 60 parámetros acústicos distintos.
Por otra parte, también se ha empleado información acerca de cómo se ha desarrollado el diálogo para ajustar la probabilidad de que un usuario esté en un estado emocional u otro. Por ejemplo, el que el sistema no haya reconocido bien varias veces lo que su interlocutor desea decirle, o le haya pedido al usuario que repita información que ya había proporcionado, pueden ser factores que hagan que el usuario se enfade o se aburra de interactuar con el sistema.
Además, señalan los autores de este trabajo, publicado en el Journal on Advances in Signal Processing, es importante que la máquina pueda prever cómo se va a desarrollar el resto del diálogo. "Para ello, hemos desarrollado un método estadístico que aprende de diálogos previos cuáles son las acciones más probables que puede tomar un usuario en cada momento", destacan los investigadores.
Una vez que se han detectado tanto emoción como intención, los científicos proponen adaptar automáticamente el diálogo a la situación que atraviesa el usuario. Por ejemplo, si tiene dudas, se le puede dar una ayuda más detallada; mientras que, si se aburre, esto puede ser contraproducente. Los autores han definido las pautas para conseguir esta adaptación realizando una evaluación empírica con usuarios reales, en la que se demuestra que el sistema adaptable funciona mejor en términos objetivos (por ejemplo, produce diálogos más cortos y con mayor éxito) y es percibido como más factible por los usuarios.
Este trabajo ha sido realizado por el profesor David Griol Barres, del Grupo de Inteligencia Artificial Aplicada del Departamento de Informática de la UC3M, junto a los profesores Zoraida Callejas Carrión y Ramón López-Cózar Delgado, del Grupo de Sistemas de Diálogo Hablado y Multimodal del Departamento de Lenguajes y Sistemas Informáticos de la UGR. Este logro se enmarca en el área de la computación afectiva (sistemas informáticos que son capaces de procesar y/o responder a la emoción del usuario).
Referencia bibliográfica:
Z. Callejas, D. Griol, R. López-Cózar. "Predicting user mental states in spoken dialogue systems" EURASIP Journal on Advances in Signal Processing, 2011:6, pp. 1-23