Expertos estadounidenses han descrito cómo actúa el cerebro de las personas sin habla cuando escuchan una conversación y han sido capaces de extraer las palabras que expresan en su cerebro. El avance podría ampliar la capacidad de comunicación de las personas con discapacidades en el habla y el lenguaje.
Un grupo de neurocientíficos de la Universidad de California Berkley (EE UU) ha logrado entender cómo el cerebro ‘escucha’ una conversación. Tras analizar la actividad de una zona del lóbulo temporal, la parte del cerebro que controla el sistema auditivo, los expertos han obtenido las palabras que una persona incapaz de hablar ha escuchado. La investigación se publica en la revista PLoS Biology.
“Los pacientes con daños en el habla a causa de un accidente cerebrovascular o que sufren esclerosis lateral amiotrófica (ELA) podrían beneficiarse si se consiguen reconstruir las conversaciones imaginarias a partir de la actividad del cerebro”, opina Robert Knight, investigador de la Universidad americana y coautor del trabajo.
Para aprender más sobre cómo el cerebro traduce el sonido en significado, los investigadores analizaron cómo una zona del sistema auditivo procesa las frecuencias acústicas y el ritmo del habla. “Comprender la relación entre las señales del cerebro y sus características sonoras permite descifrar el sonido utilizando sólo las grabaciones cerebrales”, declara a SINC Brian Pasley, autor principal del artículo e investigador en el mismo centro.
El experto aclara que “este trabajo no consiste en leer la mente. Solo se han decodificado sonidos que una persona escucha, no lo que alguien piensa para sí mismo”.
Como Beethoven
Pasley compara el cerebro con un piano en el que las zonas encargadas de grabar sonidos son las teclas. “Un pianista experto sabe las notas musicales que se asocian con cada tecla del piano, y viendo cuáles se pulsan, sin necesidad de oír la melodía, tiene una idea precisa de lo que se toca porque entienden la relación entre las teclas y el sonido. Igual que Ludwig van Beethoven era capaz de ‘oír’ sus composiciones a pesar de ser sordo”, añade Pasley.
Las grabaciones del cerebro son similares. Se puede determinar la relación entre la actividad cerebral y diferentes frecuencias acústicas del sonido. Según Pasley, “si vemos qué sitios del cerebro se activan podemos adivinar qué sonido era el que el paciente ha escuchado”.
Evidencias científicas apuntan que tanto escuchar un sonido como imaginarlo (tararear mentalmente una canción, por ejemplo) pueden activar áreas similares del cerebro. De confirmarse, y si el cerebro procesa las imágenes auditivas y del habla de forma similar a la percepción, “se podría aplicar este enfoque a la lectura de discurso imaginario, que puede ser útil en el desarrollo de prótesis de comunicación para discapacitados grave”, añade.
90% de efectividad
Para realizar el estudio, se ofrecieron voluntarios 15 pacientes que debían someterse a intervenciones de cirugía craneal. Durante una semana se les colocaron más de 250 electrodos directamente en la corteza cerebral para registrar su actividad. Mientras los pacientes escuchaban conversaciones de entre cinco y diez minutos, se registraba la actividad cerebral detectada por los electrodos.
Pasley utilizó estos datos para reconstruir y reproducir los sonidos que los pacientes habían escuchado. El análisis de las frecuencias y ritmos producidos en menos de diez minutos de charla fueron suficientes para reproducir sonidos bastante cercanos a la palabra original con un 90% de acierto.
Para Knight “esta investigación es un paso hacia la compresión de qué características del habla se representan en el cerebro”.
Referencia bibliográfica
Brian N. Pasley, Stephen V. David, Nima Mesgarani, Adeen Flinker, Shihab A. Shamma, Nathan E.Crone, Robert T. Knight, Edward F. Chang. “Reconstructing Speech from Human Auditory Cortex”. PLoS Biology. January 31, 2012. 10 (31). doi:10.1371/journal.pbio.1001251.