Los sonidos y las palabras se procesan por separado y simultáneamente en el cerebro

Un equipo internacional de científicos desvela que el procesamiento auditivo y el del habla se producen en paralelo. Este hallazgo contradice una teoría sostenida hasta ahora, que defendía que el cerebro primero interpretaba la información acústica para después transformarla en lingüística.

Investigadores observan fotos del cerebro humano
Los resultados de una investigación desvelan que el procesamiento auditivo y el del habla se producen simultáneamente y de forma independiente. / Adobe Stock 

La cóclea —una estructura en forma de tubo enrollado en espiral situada en el oído interno—convierte las vibraciones del sonido en señales eléctricas (impulsos nerviosos), que son enviadas a una región del cerebro llamada corteza auditiva primaria, situada en el lóbulo temporal.

Durante décadas, los científicos creían que el análisis del habla en el córtex auditivo era similar a una cadena de montaje en una fábrica. En primer lugar, esta zona del cerebro procesaba la información acústica simple, como las frecuencias de los sonidos. A continuación, una región adyacente, denominada giro temporal superior (STG, por sus siglas en inglés), se encargaba de transformar los sonidos en palabras con significado.

El córtex auditivo primario está situado en lo más profundo de la hendidura que separa los lóbulos frontal y temporal del cerebro humano

Sin embargo, esta teoría no había sido demostrada, ya que requería observaciones neurofisiológicas muy detalladas de toda la corteza auditiva con una resolución espacio-temporal extremadamente alta. Esto supone un reto, ya que el córtex auditivo primario está situado en lo más profundo de la hendidura que separa los lóbulos frontal y temporal del cerebro humano.

Una investigación, liderada por la Universidad de California San Francisco (EE UU), ha logrado estudiar estas regiones del cerebro y ha desvelado que el procesamiento de los sonidos y del lenguaje se produce al mismo tiempo. Los resultados, publicados en la revista Cell, contradicen el modelo tradicional, que sostenía que se trataba de una reacción en cadena.

“Nos adentramos en este estudio con la esperanza de encontrar pruebas de cómo ocurría la transformación de los sonidos en palabras”, indica Edward Chang, neurocientífico de la Universidad de California San Francisco (EE UU).

Siete años de seguimiento a nueve personas

A lo largo de siete años, Chang y su equipo han estudiado a nueve participantes que tuvieron que someterse a cirugías cerebrales por diferentes motivos médicos, como la extirpación de un tumor o la localización de un foco de convulsiones.

Durante las operaciones, colocaron matrices de pequeños electrodos, que cubrían todo la corteza auditiva primaria de los pacientes, con el fin de recoger señales neuronales para el mapeo del lenguaje y las convulsiones.

“Este estudio es la primera vez que pudimos cubrir todas estas áreas simultáneamente desde la superficie del cerebro y estudiar la transformación de los sonidos en palabras”, afirma Chang. Los intentos anteriores de estudiar la actividad de estas zonas cerebrales implicaban la inserción de un cable, que solo podía revelar las señales en un número limitado de puntos.

Los intentos anteriores de estudiar la actividad de estas zonas cerebrales implicaban la inserción de un cable, que solo podía revelar las señales en un número limitado de puntos

Cuando reprodujeron frases cortas y oraciones para los pacientes, los investigadores esperaban encontrar un flujo de información desde el córtex auditivo primario hasta el STG adyacente, de manera que las dos regiones se activarían una tras otra.

Sin embargo, no fue eso lo que observaron: descubrieron que el STG respondía igual de rápido que la corteza auditoria primaria al ser estimulados por el sonido, lo que da a entender que ambas zonas interpretan la información al mismo tiempo.

“Sorprendentemente, el tiempo de las respuestas neuronales era igual de rápido en las dos áreas. Esto cambia la forma de pensar que teníamos hasta ahora sobre cómo se producía el procesamiento del lenguaje en el cerebro humano”, destaca el autor.

Percepción del lenguaje

Además, como parte del mapeo clínico del lenguaje, los científicos estimularon el córtex auditivo de los participantes con pequeñas corrientes eléctricas. Si el análisis del habla sigue una reacción en cadena, como sugiere el modelo tradicional, los estímulos distorsionarían probablemente la percepción del lenguaje de los pacientes.

La estimulación eléctrica en la corteza auditiva no altera la percepción del habla

No obstante, los resultados demuestran que, aunque los participantes experimentaron alucinaciones auditivas inducidas por los estímulos, siguen siendo capaces de oír y repetir claramente las palabras.

“Descubrimos que la estimulación eléctrica en la corteza auditiva no altera la percepción del habla. Además, un paciente, al que se le había extirpado completamente el córtex auditivo primario, tampoco tenía dificultad para percibir el lenguaje”, explica a SINC el neurocientífico.

En cambio, cuando se estimulaba el STG, los participantes informaban de que podían oír a la gente hablar, pero no podían distinguir las palabras. “De hecho, uno de los pacientes dijo que parecía que se intercambiaban las sílabas en las palabras”, afirma el experto.

Este estudio sugiere que el modelo tradicional, que se creía válido hasta ahora, está demasiado simplificado y probablemente sea incorrecto. Los autores especulan con la posibilidad de que el STG y la corteza auditiva primaria funcionen de forma independiente.

Futuras aplicaciones

Gracias a este estudio, se abren nuevas vías de investigación y tratamiento de la dislexia —un trastorno del aprendizaje que sufren los niños con dificultades para leer o escribir, debido a que no identifican correctamente los sonidos del lenguaje—, ya que permite comprender “qué áreas son esenciales para el procesamiento del habla”, indica Chang.

“Aunque se trata de un importante paso adelante, todavía no comprendemos bien este sistema auditivo paralelo. Los hallazgos sugieren que el enrutamiento de la información sonora podría ser muy diferente de lo que habíamos imaginado. Sin duda, plantea más preguntas que respuestas”, concluye el autor.

Referencia:

Hamilton et al. “Parallel and distributed encoding of speech across human auditory cortex”. Cell 2021 

Fuente: SINC
Derechos: Creative Commons.
Artículos relacionados