Un equipo de neurocientíficos del Instituto de Tecnología de Massachusetts ha identificado, por primera vez, una población de neuronas en la corteza auditiva del cerebro humano que responde únicamente a la voz cantada, y no a la voz hablada o la música instrumental.
Por primera vez, neurocientíficos del Instituto de Tecnología de Massachusetts en EE UU (MIT) han identificado una población de neuronas en el cerebro humano que se ilumina cuando oímos cantar, pero no otros tipos de música.
Estas neuronas, que se encuentran en la corteza auditiva, parecen responder a la combinación específica de voz y música (o voz melodiosa cantada), pero no al habla normal ni a la música instrumental. Los investigadores afirman que se desconoce qué es lo que hacen exactamente y que habrá que seguir trabajando para descubrirlo.
“Este estudio revela algunas de las dimensiones de respuesta dominantes que organizan el córtex auditivo humano, lo cual es muy importante para comprender y modelar los mecanismos neurales del procesamiento auditivo”, señala a SINC el primer firmante del estudio, Samuel Norman-Haignere, antiguo posdoc del MIT y ahora profesor asistente de neurociencia en el Centro Médico de la Universidad de Rochester (EE UU).
“El trabajo también sugiere que las representaciones de la música se fraccionan en poblaciones neuronales distintas que responden selectivamente a diferentes tipos de música. Entender cómo y por qué se desarrolla esta organización es una cuestión importante para futuras investigaciones”, añade el experto.
El estudio, que se publica hoy en la revista Current Biology, se basa en un trabajo de 2015 en el que el mismo equipo de investigación utilizó imágenes de resonancia magnética funcional (RMNf) para identificar una población de neuronas en la corteza auditiva del cerebro que responde específicamente a la música. En la nueva investigación, los científicos utilizaron mediciones de la actividad eléctrica tomadas en la superficie del cerebro, lo que les proporcionó información mucho más precisa que la RMNf.
“Hay una población de neuronas que responde al canto, y muy cerca hay otra que responde ampliamente a gran cantidad de música. A escala de la RMNf, están tan cerca que no se pueden separar, pero con las mediciones intracraneales obtenemos una resolución adicional, y eso es lo que creemos que nos permitió distinguirlas”, comenta Norman-Haignere.
En el estudio de 2015, los neurocientíficos utilizaron la RMNf para escanear los cerebros de los participantes mientras escuchaban una colección de 165 sonidos, entre los que se encontraban diferentes tipos de habla y música, así como sonidos cotidianos como el repiqueteo de un dedo o el ladrido de un perro. Gracias a esta investigación, los científicos identificaron seis poblaciones neuronales con diferentes patrones de respuesta, incluida una población selectiva para la música y otra población que responde selectivamente al habla.
Ahora, en su nuevo trabajo, los investigadores usaron una técnica conocida como electrocorticografía (ECoG), con el fin de obtener datos de mayor resolución. Esta técnica permite registrar la actividad eléctrica mediante electrodos colocados directamente sobre la superficie del cerebro, lo que ofrece una imagen mucho más precisa de la actividad eléctrica en el cerebro en comparación con la RMNf, que mide el flujo sanguíneo en el cerebro como indicador de la actividad neuronal.
“Con la mayoría de los métodos de la neurociencia cognitiva humana, no se pueden ver las representaciones neuronales”, explica Nancy Kanwisher, catedrática de neurociencia cognitiva y miembro del Instituto McGovern de Investigación Cerebral y del Centro de Cerebros, Mentes y Máquinas (CBMM) del MIT. “La mayor parte de los datos que podemos recoger nos dicen que aquí hay un trozo de cerebro que hace algo, pero eso es bastante limitado. Queremos saber qué está representado ahí”.
La electrocorticografía no puede realizarse normalmente en seres humanos porque es un procedimiento invasivo, pero se utiliza a menudo para controlar a los pacientes con epilepsia que están a punto de someterse a una cirugía para tratar sus convulsiones. Las personas son monitorizadas durante varios días para que los médicos puedan determinar dónde se originan los ataques antes de operar. Durante ese tiempo, si los pacientes están de acuerdo, pueden participar en estudios que consisten en medir su actividad cerebral mientras realizan determinadas tareas. Para este trabajo, el equipo del MIT pudo reunir datos de 15 participantes durante varios años.
“La ECoG proporciona una medida mucho más precisa de la respuesta neural, pero las oportunidades de registrar respuestas son escasas y la cobertura es mucho peor que la RMNf, ya que los electrodos se implantan por razones clínicas (principalmente para localizar los focos de ataques epilépticos)”, explica a SINC Norman-Haignere. “Una de las innovaciones metodológicas del estudio fue desarrollar una técnica para combinar la precisión de la ECoG con la densa cobertura espacial de las respuestas de la RMNf”, añade.
Para estos participantes, los investigadores reprodujeron el mismo conjunto de 165 sonidos que utilizaron en el estudio previo. La ubicación de los electrodos de cada paciente fue determinada por sus cirujanos, por lo que algunos no captaron ninguna respuesta a la entrada auditiva, pero muchos sí. Mediante un novedoso análisis estadístico que desarrollaron, los expertos pudieron inferir los tipos de poblaciones neuronales que producían los datos registrados por cada electrodo.
“Cuando aplicamos este método al conjunto de datos, surgió este patrón de respuesta neuronal que solo respondía al canto. Fue un hallazgo que realmente no esperábamos, así que justifica en gran medida el objetivo del método, que es revelar cosas potencialmente novedosas”, afirma Norman-Haignere.
Esa población de neuronas tenía respuestas muy débiles al habla o a la música instrumental, y por lo tanto es distinta de las poblaciones selectivas para la música y el habla identificadas en la investigación realizada en 2015.
“En nuestro estudio anterior, descubrimos seis patrones de respuesta diferentes, dos de los cuales respondían selectivamente al habla y a la música, y cuatro de los cuales tenían respuestas que se correlacionaban con medidas acústicas estándar (por ejemplo, la frecuencia del sonido). Aquí, además, descubrimos una respuesta neural que respondía selectivamente al canto”, destaca el experto.
En la segunda parte de su estudio, los investigadores idearon un método matemático para combinar los datos de las tomas intracraneales con los datos de RMNf de su estudio de 2015. Dado que la resonancia puede abarcar una porción mucho mayor del cerebro, esto les permitió determinar con mayor precisión las ubicaciones de las poblaciones neuronales que responden al canto.
“Esta forma de combinar la ECoG y la RMNf es un avance metodológico importante”, afirma Josh McDermott, profesor asociado del departamento de Ciencias Cognitivas y del Cerebro del MIT. “Mucha gente ha estado haciendo ECoG en los últimos 10 o 15 años, pero siempre ha estado limitado por este problema de la escasez de las grabaciones. Samuel Norman-Haignere es realmente la primera persona que descubrió cómo combinar la resolución mejorada de los registros de electrodos con los datos de RMNf para obtener una mejor localización de las respuestas globales”.
Esta población de neuronas selectivas al canto se encuentra en la parte superior del lóbulo temporal, cerca de las regiones que son selectivas para el lenguaje y la música. Su localización sugiere que estas neuronas pueden responder a rasgos como el tono percibido, o la interacción entre las palabras y el tono percibido, antes de enviar la información a otras partes del cerebro para su posterior procesamiento, explican los científicos.
Los investigadores esperan aprender más sobre qué aspectos del canto impulsan las respuestas de estas neuronas. Además, junto con el laboratorio de la profesora del MIT, Rebecca Saxe, pretenden estudiar si los bebés tienen áreas selectivas para la música, con la esperanza de conocer más sobre cuándo y cómo se desarrollan estas regiones del cerebro.
Referencia:
Samuel Norman-Haignere et al. (2022) “A neural population selective for song in human auditory cortex”. Current Biology. DOI: 10.1016/j.cub.2022.01.069