Algoritmos que escuchan

Investigadores de la Universidad de Alcalá (UAH) desarrollan un nuevo audífono digital que mejora la calidad del sonido recibido por el usuario.

Algoritmos que escuchan
Audífono. Foto: UAH.

Según un estudio publicado en el Journal on Applied Signal Processing, el 13% de la población de los países desarrollados sufre pérdidas de audición, lo que supone una importante merma de la calidad de vida de los afectados. Para paliar estas deficiencias, el Grupo de Procesado de Señales Sonoras del departamento de Teoría de la Señal y Comunicaciones de la Universidad de Alcalá ha logrado que los audífonos digitales reconozcan de manera automática el entorno acústico del usuario para adaptarse a cada situación.

Un audífono digital es un dispositivo formado por un micrófono, un pequeño procesador y un altavoz. La señal, recibida por el micrófono, debe ser amplificada en función de las pérdidas auditivas del paciente. El resultado final llega al usuario a través del altavoz. En los audífonos que se encuentran actualmente en el mercado es necesario activar los diferentes entornos de audición –conversación en ambiente ruidoso, conversación en ambiente tranquilo, ruido y música– por medio de pulsadores o controles remotos, lo que dificulta su uso, sobre todo en el caso de personas mayores.

“Nuestro objetivo es conseguir que el audífono detecte de forma automática el entorno sonoro en el que se encuentra el usuario, si está hablando con alguien o si escucha el ruido del tráfico, para modificar los parámetros de funcionamiento del aparato con el objetivo de optimizar la calidad del sonido recibido”, afirma Enrique Alexandre, investigador que lidera uno de los proyectos del Grupo de Procesado de Señales Sonoras de la UAH. “Si el paciente está manteniendo una conversación con bastante ruido de fondo, el audífono puede activar un sistema de reducción de ruido para mejorar la inteligibilidad de la voz. Si, por el contrario, el usuario está en un atasco, el audífono puede reducir ligeramente su ganancia para proporcionar un mayor confort, al ahorrarle ruidos molestos”, explica Alexandre, que tiene en los algoritmos matemáticos su mejor herramienta de trabajo.

Una de las principales barreras con las que se encuentran los ingenieros a la hora de diseñar un audífono es el tamaño. “Los audífonos digitales llevan un procesador muy pequeño, ya que debe caber en el canal auditivo. La batería también debe serlo, pero sin embargo debe proporcionar la mayor autonomía posible. La consecuencia de todo ello es que la velocidad con la que procesa la información un audífono es unas mil veces inferior a la de cualquier ordenador. Queda claro que es de vital importancia reducir la complejidad de estos sistemas”, apunta este profesor del departamento de Teoría de la Señal y Comunicaciones de la UAH.

Las matemáticas, en este caso, ayudan a solucionar el problema. Debido a la capacidad limitada de estos dispositivos, las operaciones que se realizan dentro del audífono no son exactas, siempre hay un pequeño error por redondeo. El proyecto "Efectos de la aritmética de precisión finita en la clasificación mediante redes neuronales de señales sonoras en audífonos digitales” pretende analizar el efecto de este tipo de errores y diseñar estrategias que permitan minimizar dichos efectos.

En esta línea, una de las integrantes de este grupo de investigación, Lorena Álvarez Pérez, ha recibido el premio ADESLAS al Mejor Proyecto Fin de Carrera en Nuevas Tecnologías de la Comunicación Aplicadas a la Salud y la Medicina, que cada año concede el Colegio de Ingenieros de Telecomunicación, por el diseño y mejora del algoritmo de clasificación de los audífonos digitales. Esta alumna de la UAH ha analizado, bajo la supervisión de Enrique Alexandre, la viabilidad del uso de sistemas basados en redes neuronales artificiales para realizar dicha clasificación. Se trata de una innovación tecnológica que proporciona un gran beneficio social.

Otra aplicación de los algoritmos desarrollados por el equipo de la UAH es la mejora de los dispositivos de manos libres para la telefonía móvil. “Mediante un sistema parecido al utilizado para los audífonos se podrá detectar automáticamente la actividad vocal, permitiendo así mejorar la calidad de la misma, y actuando de forma distinta dependiendo del ambiente en el que se encuentre el usuario”, explica Alexandre.

--------------------

Referencia bibliográfica:

M. Büchler, S. Allegro, S. Launer, and N. Dillier, “Sound classification in hearing aids inspired by auditory scene analysis,” EURASIP Journal on Applied Signal Processing, vol. 18, pp. 2991–3002, 2005.

Fuente: UAH
Derechos: Creative Commons
Artículos relacionados