Científicos de más de 80 instituciones europeas se han embarcado en el Human Brain Project, una iniciativa que tiene por objetivo construir un modelo virtual de cerebro humano utilizando algoritmos y superordenadores. Traerá grandes avances en neurociencia y en el tratamiento de enfermedades cerebrales. Además, IBM y otras firmas utilizarán el conocimiento que surja del proyecto para acelerar el desarrollo de sistemas inspirados en la herramienta de computación más sofisticada y potente: el cerebro.
El mes pasado arrancó oficialmente el Human Brain Project (HBP), un megaproyecto financiado por la Comisión Europea con 1.200 millones de euros y en el que participarán durante diez años más de 130 instituciones de investigación en el mundo, 80 de ellas, europeas.
La finalidad del proyecto es “tratar de desvelar qué hace que el cerebro humano sea único, los mecanismos básicos que hay detrás del conocimiento y el comportamiento, y también qué pasa cuando falla”, señala el neurocientífico Henry Markram, coordinador del proyecto desde la Escuela Politécnica Federal de Lausana (EPFL), institución suiza que lidera la iniciativa.
Según Markram, el desarrollo del HBP traerá no solo un conocimiento más profundo del cerebro y de cómo tratar mejor las enfermedades cerebrales. También servirá como un acelerador tecnológico para mejorar los superordenadores y desarrollar sistemas totalmente nuevos inspirados en el funcionamiento y las capacidades del cerebro.
Markram participó recientemente en una conferencia organizada por IBM Research, en su filial de Zúrich (Suiza), a la que asistió SINC. La multinacional estadounidense está muy implicada en el proyecto, ya que desde 2005 colabora con la EPFL en el Blue Brain Project, un precursor del HBP nacido para crear un modelo funcional del cerebro mediante simulaciones en los supercomputadores Blue Gene de IBM.
La carrera del cerebro
Además, el Human Brain Project va a convivir con otro gran proyecto del estudio del cerebro llamado Brain Initiative, impulsado por Estados Unidos y liderado por el científico español Rafael Yuste, que pretende mapear todas y cada una de las neuronas. El presidente Obama está intentado persuadir al Congreso estadounidense para que otorgue a esta iniciativa una partida presupuestaria de 3.000 millones de dólares (2.220 millones de euros). Hasta ahora se han asignado 100 millones de dólares (unos 75 millones de euros).
La coincidencia en el tiempo de ambos proyectos ha hecho que se hable de la ‘carrera del cerebro’ y que se haya comparado a estas propuestas con el lanzamiento del Proyecto Genoma a comienzos de los noventa del siglo pasado.
Sin embargo, el Human Brain Project y la Brain Initiative tienen aproximaciones muy diferentes. “Nosotros vamos a ser muy pragmáticos en el HBP. Sabemos que es imposible mapear experimentalmente el cerebro. Algunos científicos están diciendo que se puede hacer como con el genoma humano, pero no es más que una ilusión”, subraya Markram.
Según un símil utilizado frecuentemente en neurociencia, el número total de células, incluyendo neuronas, células vasculares y glía en el cerebro humano es mayor que el número de estrellas en la Vía Láctea.
El neurocientífico dice que con métodos convencionales, “se necesitarían unos 20.000 experimentos para mapear un solo circuito neuronal y en el cerebro hay unos 90.000 millones de neuronas. Además, para comprender plenamente el funcionamiento de todas las sinapsis y de cómo interactúan con las neuronas en otras partes del neocórtex, tendrían que rastrear 100 billones de conexiones, algo experimentalmente imposible”, insiste.
Llevaría siglos hacerlo con la tecnología actual e incluso con futuros desarrollos. Entonces, añade, “si no podemos hacer un mapa experimental del cerebro, haremos un modelo predictivo. Vamos a predecir su biología, el número de neuronas, el tipo de neuronas, las conexiones, dónde están localizadas las proteínas... Tenemos que desarrollar una ciencia completamente nueva que se llamará neurociencia predictiva”.
Simulación y experimentación
Así pues, el gran reto del HBP será simular el funcionamiento del cerebro en sus diferentes capas, desde el genoma y niveles celulares a neuronas, circuitos, regiones y finalmente el cerebro entero, empezando con ratones y luego con humanos.
En vez de mapear las estructuras neurales pieza a pieza, intentarán desentrañar algunos de los principios subyacentes que gobiernan la morfología y la arquitectura del cerebro. Y utilizarán superordenadores para, con miles de simulaciones estadísticas, predecir la forma en que las neuronas tienden a combinarse.
Después se comprobarán los modelos con los datos experimentales y, en teoría, se podrán predecir esas estructuras y utilizarlas para realizar ingeniería inversa del cerebro humano.
Según el coordinador del HBP, hará falta mucho trabajo para preparar y construir todo el software, organizar los datos biológicos y desarrollar los algoritmos. Y para ello será necesaria una computación totalmente diferente a la que existe ahora.
El big data que tendrá que manejar el proyecto vendrá también de los 100.000 artículos científicos que se publican anualmente sobre el cerebro y de datos procedentes de hospitales con información de pacientes, cuya identidad permanecerá anónima, gracias a las modernas técnicas de encriptación. “Hay una información muy dispersa y fragmentada que este proyecto permitirá unificar e integrar, dice Markram.
Acelerador tecnológico
“Las primeras fases del HBP aún se podrán realizar con los sistemas de supercomputación actuales, pero a medida que avance, mayor será su complejidad. Estamos trabajando para desarrollar nuevos paradigmas que nos permitan afrontar el desafío, señala Alessandro Curioni, director de ciencia computacional en IBM Research-Zúrich.
La firma ha colaborado con EPFL, que ahora lidera el Human Brain Project, en el desarrollo de superordenadores intensivos en memoria e interactivos, que hagan frente a la avalancha de datos que habrá que procesar y almacenar.
Además de IBM, otras compañías como Cray, Intel y Bull también están trabajando para conseguir superordenadores 1.000 veces más veloces que los actuales. Estas firmas se han comprometido a construir las primeras máquinas exaescala (qué operarán a trillones de operaciones por segundo) hacia el año 2020.
Pero la verdadera revolución tecnológica vendrá, según Curioni, de la computación neuromórfica en la que IBM ya lleva trabajando varios años.
Para construir estos sistemas los científicos computacionales intentan aprender del cerebro, de su forma de procesar, transmitir y almacenar información y de cómo hace todo esto con un consumo de energía mínimo (20 vatios, el equivalente a lo que consume una bombilla).
“El cerebro tiene muchos secretos, no necesita programarse, aprende. Es robusto, se puede dañar una parte importante y sigue funcionando. La tecnología tiene todavía mucho que aprender de él”, dice Markram.
IBM lleva años trabajando en computación neuromórfica. En 2009 anunció el desarrollo del algoritmo Blue Matter, en colaboración con la Universidad de Stanford. Este programa mapeaba de forma no invasiva las conexiones entre todas las ubicaciones corticales y subcorticales del cerebro humano utilizando imágenes de resonancia magnética.
El siguiente paso fue el desarrollo del primer prototipo de chip neuromórfico, diseñado para emular capacidades del cerebro como la percepción, la acción y la cognición. El microprocesador, aún en fase experimental, irá integrado en los futuros ordenadores cognitivos, que no estarán programados como los sistemas actuales.
La compañía indica que estos sistemas aprenderán de su experiencia, encontrarán correlaciones, crearán hipótesis, recordarán y aprenderán de los resultados, imitando la estructura plástica y sináptica del cerebro. Se trata de un gran proyecto que romperá con la arquitectura Von Neumann que ha regido la informática durante los últimos 40 años.
Aunque no contiene elementos biológicos, el prototipo de chip neuromórfico de IBM usa circuitos de silicio inspirados en la neurobiología para construir lo que se ha denominado núcleo neurosináptico, con memoria integrada que replica las sinapsis.
La iniciativa Human Brain Project cuenta con la colaboración de los principales centros de supercomputación europeos. Uno de ellos es el Barcelona Supercomputing Center (BSC) que aportará sus modelos de programación para que las simulaciones del cerebro puedan ejecutarse en los superordenadores europeos y coordinarse entre ellas.
Además, el BSC ha puesto a disposición del proyecto el superordenador MareNostrum para ejecutar las simulaciones a escala neuronal.
Sin embargo, la parte principal de la simulación del HBP se llevará a cabo en el Juelich Supercomputing Center, en el norte de Alemania, donde está planeado instalar una máquina exaescala que podrá operar a un exaflop, un trillón de operaciones por segundo.
Henry Markram, coordinador del Human Brain Project, es muy crítico con la actual fragmentación que existe en las investigaciones de las enfermedades cerebrales, como el alzhéimer, el párkinson y el autismo, “lo que hace que no se avance en su tratamiento”, dice.
Por ello, añade, “en el Human Brain Project se va a llevar a cabo un acercamiento totalmente diferente a estas enfermedades. Vamos a estudiar todas en su conjunto, pero no de forma experimental, sino utilizando algoritmos y reglas básicas. Queremos saber cómo se comparan unas con las otras y cuáles son las similitudes y las diferencias”, afirma.
Hay voces críticas que no ven mucho sentido en un desembolso tan grande en un proyecto a tan largo plazo como el HBP. Pero, según este neurocientífico, “cuanto más entendamos sobre cómo funciona el cerebro, mejor sabremos cómo arreglarlo”.