El IFCA trabaja, desde hace 6 años, en este tipo de infraestructuras

El acelerador de partículas LHC inaugura hoy los medios de computación que usará para el análisis de datos

Hoy, nueve años después de comenzar el proyecto, se celebra el inicio de la ‘Worldwide LHC Computing Grid’. Esta infraestructura, no sólo es un hito de la tecnología y la innovación, sino también de la colaboración internacional y la cooperación. El objeto de esta red es generar tecnologías capaces de armonizar su capacidad de procesamiento y almacenamiento para la gran cantidad de datos que genera el acelerador de partículas del CERN.

Fuente CERN
Imagen de la Sala de Computación del CERN, en Ginebra.

El director del Instituto de Física de Cantabria (IFCA), centro mixto del Consejo Superior de Investigaciones Científicas (CSIC) y la Universidad de Cantabria (UC), Francisco Matorras, asiste hoy al ‘LHC Grid Fest’. El acto, que se celebra en el CERN, en Ginebra, tiene como objeto principal inaugurar y dar a conocer el sistema de computación que utilizará el gran acelerador de partículas, Large Hadron Collider (LHC), para la gestión y análisis de los datos que obtenga el experimento.

Cuando el LHC genere la primera colisión de protones, que será provocada mediante grandes cantidades de energía y a velocidades similares a la de la luz, se comenzarán a producir alrededor de 15 millones de Gigabytes de datos cada año, que serán analizados casi instantáneamente.

Y para que esta gran cantidad de información sea gestionada de la manera más eficaz posible, hoy se anuncia en este acto la disposición del ‘Worldwide LHC Computing Grid’ (WLCG). Se trata de una infraestructura diseñada para apoyar este desafío de datos, con los que trabajarán más de 7.000 físicos de todo el mundo.

Colaboración Internacional

Esta infraestructura, el ‘Worldwide LHC Computing Grid’, no sólo es un hito de la tecnología y la innovación, sino también de la colaboración internacional y la cooperación, ya que aquí se combinan la computación en recursos compartidos de más de 140 centros de investigación en 33 países. Todo ello, con objeto de generar tecnologías capaces de armonizar su capacidad de procesamiento y de almacenamiento para crear un potente recurso de supercomputación masivo, distribuido geográficamente, para uso de la física y otras disciplinas de la ciencia.

Tras nueve años de trabajo, se celebra hoy el inicio de la ‘Worldwide LHC Computing Grid’. Así el programa del LHC Grid Fest se dividirá en dos sesiones. La primera, por la mañana, está dedicada a cuestiones generales sobre la red de computación, y la sesión de la tarde se centrará en la prensa especializada.

Participación local

Además de la contribución del Instituto de Física a la construcción de unos de los detectores del LHC, el CMS, y el análisis de sus datos, físicos e ingenieros, el centro trabaja, desde hace 6 años, en el desarrollo de herramientas e infraestructuras informáticas para este proyecto. Una labor científica iniciada por el investigador del CSIC, Jesús Marco, y que, actualmente, está dirigida por el director del centro, Francisco Matorras.

En este momento el IFCA dispone de una de las dos infraestructuras que existen en España para el análisis de este tipo de datos, accesible para casi un millar de científicos de todo el mundo. Asimismo, cuenta con unos 250 nodos de cálculo y un almacenamiento de 100.000 GB para esta actividad. Una superestructura que se ampliará de forma progresiva en los próximos meses con el fin de duplicar las capacidades al inicio de la toma de datos procedentes del LHC, en la primavera de 2009.

Por otra parte, durante todo este año el IFCA ha utilizado ya estos recursos para el procesado de datos simulados destinados a preparar tanto la toma de datos real, como los primeros resultados de prueba del detector. En total se han copiado, desde Ginebra, unos 500.000 GB y se realizaron alrededor de 250.000 trabajos de análisis sobre estos datos.

Fuente: IFCA
Derechos: Creative Commons
Artículos relacionados