/* Style Definitions */
table.MsoNormalTable
{mso-style-name:"Tabla normal";
mso-tstyle-rowband-size:0;
mso-tstyle-colband-size:0;
mso-style-noshow:yes;
mso-style-priority:99;
mso-style-qformat:yes;
mso-style-parent:"";
mso-padding-alt:0cm 5.4pt 0cm 5.4pt;
mso-para-margin:0cm;
mso-para-margin-bottom:.0001pt;
mso-pagination:widow-orphan;
font-size:11.0pt;
font-family:"Calibri","sans-serif";
mso-ascii-font-family:Calibri;
mso-ascii-theme-font:minor-latin;
mso-fareast-font-family:"Times New Roman";
mso-fareast-theme-font:minor-fareast;
mso-hansi-font-family:Calibri;
mso-hansi-theme-font:minor-latin;
mso-bidi-font-family:"Times New Roman";
mso-bidi-theme-font:minor-bidi;}
Investigadores del Instituto de Ciencias del Cosmos de la Universidad de Barcelona (ICCUB) han realizado desarrollos sobre DIRAC, software que gestiona el procesado de los datos de uno de los grandes experimentos en el Gran Colisionador de Hadrones (LHC), para utilizar sistemas comerciales de provisión de potencia de cálculo y optimizar así el coste de los recursos computacionales necesarios para realizar grandes tareas de cálculo. El objetivo del proyecto, financiado por el proyecto Consolider 2010 CPAN (Centro Nacional de Física de Partículas, Astropartículas y Nuclear), es desarrollar DIRAC para gestionar los recursos de computación en cualquier disciplina científica y grupo de usuarios. El software desarrollado se ha probado con éxito para realizar simulaciones del experimento Belle (Japón) utilizando 2.000 procesadores de Amazon Elastic Compute Cloud (EC2).
DIRAC gestiona la ejecución de los programas de procesado de la información registrada en los detectores del experimento LHCb para identificar los distintos tipos de partículas medidos; controla la ejecución de los algoritmos informáticos para la selección los datos más relevantes de entre la gran cantidad registrada (10 millones de colisiones son necesarias para reconstruir una “partícula B”, a partir de las cuales se estudiará la asimetría entre materia y antimateria en el universo); distribuye los datos a través de una red de centros de cálculo llamada WorldWide LHC Computing Grid (WLCG, con más de 300 centros de cálculo en 57 países de todo el mundo, 120 de ellos utilizados por LHCb); y permite recuperar los datos necesarios para su posterior análisis. En el desarrollo de DIRAC han participado, entre otros, científicos del ICCUB y de la Universidad de Santiago de Compostela.
Según explica Ricardo Graciani, investigador del ICCUB responsable del proyecto, "la simulación mediante herramientas informáticas de las colisiones y la respuesta del detector es fundamental para nuestra investigación, pero precisa una gran cantidad de recursos de cálculo". Así, la construcción de una red de computación (denominada Grid) con recursos dedicados en exclusiva a procesar datos de un experimento es algo costoso y no plenamente eficiente, ya que “su uso tiene picos y valles de demanda”. Graciani toma como ejemplo Belle, colaboración internacional desarrollada en el acelerador de partículas KEK (Japón) que realiza estudios similares a los de LHCb. En Belle se recogen datos durante 6 meses al año y se utilizan otros 3 para las simulaciones informáticas correspondientes. “Esta necesidad de computación requiere sobredimensionar los recursos informáticos durante el resto del año”, argumenta Graciani, lo que implica “costes extras” para instalarlos y hacerlos funcionar.
RELACIÓN COSTE-BENEFICIO
Para optimizar el coste de estos recursos, los investigadores españoles, con el apoyo del proyecto Consolider-Ingenio 2010 CPAN (Centro Nacional de Física de Partículas, Astropartículas y Nuclear), han adaptado DIRAC para que pueda utilizar recursos de computación ofrecidos por Amazon, uno de los líderes en la venta de estos servicios en Internet. En colaboración con científicos de la Universidad de Melbourne (Australia) participantes en Belle, los investigadores del ICCUB han realizado simulaciones informáticas para el experimento Belle utilizando 250 máquinas virtuales de Amazon EC2, el equivalente a 2.000 procesadores interconectados. “Los primeros resultados muestran que la eficiencia en el uso de estos recursos computacionales ha sido superior al 95%”, afirma Graciani.
La prueba, desarrollada a lo largo de 10 días y cuyos resultados han sido enviados para su publicación en Journal of Grid Computing, ha utilizado unas 7.500 horas de cálculo con un “pico” de funcionamiento de 2.000 procesadores usados de manera simultánea durante unas 18 horas. “DIRAC ha permitido aprovechar la elasticidad del sistema de Amazon para optimizar los recursos utilizados en función de las necesidades”, sostiene el investigador. El ejercicio realizado ha permitido determinar un coste preliminar de unos 6.000 dólares para realizar 1.426 tareas de simulación (el equivalente a 120 millones de colisiones o 2.700 GB de información del experimento).
“Esta relación coste-beneficio, que aún presenta margen de mejora, permitirá valorar la idoneidad de utilizar recursos ofrecidos por Amazon, u otras empresas, o adquirir recursos en Grid para el proyecto, o bien una combinación de ambas soluciones”, resume Graciani. Las grandes colaboraciones científicas internacionales como los experimentos del LHC o las desarrolladas en Biotecnología necesitan grandes sistemas de cálculo para su desarrollo. El objetivo final del proyecto desarrollado por el ICCUB es completar DIRAC para que pueda gestionar grandes necesidades de computación en cualquier disciplina científica usando sistemas comerciales de provisionamiento de capacidad de cálculo como los ofrecidos por Amazon o Google, junto con recursos compartidos en Grid o recursos propios de una manera transparente. “De este modo se podría optimizar el coste los recursos computacionales”, justifica Graciani.