Expertos discuten en ESAC las nuevas herramientas para procesar la creciente avalancha de datos astronómicos

Asistentes al Workshop
24 marzo 2010

En la próxima década, la nueva instrumentación astronómica –ya en los telescopios basados en tierra, ya en las misiones espaciales- proporcionará más datos que los recopilado a lo largo de cuatro milenios de astronomía. Esto es sin duda una espléndida noticia. Pero ¿y si entre tantos datos se acaba perdiendo la información indispensable? Este fue uno de los temas tratados en las jornadas sobre ‘e-science’ –ciencia electrónica- que bajo el nombre ESAC E-Science Workshop 2010 se han celebrado la semana pasada en el Centro Europeo de Astronomía Espacial (ESAC), de la Agencia Europea del Espacio (ESA), en Villanueva de la Cañada (Madrid).

“La astrofísica ha pasado de ser una disciplina famélica de datos, a estar inundada de ellos”, dijo en las jornadas Peter Nugent, cofundador del Centro de Cosmología Computacional del Laboratorio Nacional Lawrence Berkeley, en EEUU. “Y eso está cambiando de forma fundamental la naturaleza de la investigación y el descubrimiento”.

Los astrónomos no sólo disponen hoy de telescopios gigantes con los que empujar cada vez más atrás las fronteras del universo observable. Además, gracias a telescopios espaciales como Herschel, XMM-Newton e Integral, de la ESA, por primera vez en la historia de la astronomía es posible detectar radiación de todo el espectro electromagnético, desde ondas de radio a los energéticos rayos X y gamma. Pero, paradójicamente, tal despliegue de instrumentación supone un desafío: cada vez más hacen falta herramientas que ayuden a procesar los datos, y a encontrar el trigo en una montaña gigante de paja.

Nugent es director y co-fundador del Centro de Cosmología Computacional del Lawrence Berkeley National Laboratory, que lleva a cabo un programa de observaciones de barrido de todo el cielo. “Durante el próximo año tendremos en marcha no menos de cuatro barridos de gran escala fotométricos y espectroscópicos, y cada uno de ellos generará decenas de terabytes de datos en sólo un año”, dijo Nugent. Su grupo ha desarrollado herramientas de análisis de datos que “garantizan que no se pierde más del 1% de los datos”, explicó este experto.

Otro aspecto clave a la hora de sacar el máximo partido a los datos es lograr que los archivos de los principales telescopios y misiones están interconectados entre sí, y fácilmente accesibles para científicos en cualquier parte del planeta. Eso permite estudiar observaciones de un mismo objeto en distintas longitudes de onda o separadas en el tiempo incluso más de diez años. No es habitual que un objeto astronómico cambie de aspecto en una escala de tiempo humana, pero cuando lo hace –una supernova, por ejemplo- implica sin duda un hallazgo importante, cuya evolución pueden hacer visible los archivos.

En esto último el paradigma es el Observatorio Virtual (http://www.ivoa.net/) actualmente en desarrollo. El Observatorio Virtual “va muy bien, aunque hay personas que aún se resisten; en cierto modo la tecnología va más rápido que nosotros”, dijo Nugent.

Uno de los ámbitos donde primero se hizo patente el reto del procesado de datos es la física de partículas. Fue la construcción del mayor acelerador de partículas del mundo, el LHC (Large Hadron Collider), del CERN, en Ginebra, el que estimuló el desarrollo de GRID, la ‘internet’ de recursos de computación.

María Alandes Pradillo, del CERN, contribuye al desarrollo de un software indispensable para la mayor infraestructura de recursos de computación compartidos para ciencia, el programa de la Comisión Europea EGEE (Enabling Grids for E-sciencE). “Esta infraestructura conecta más de 250 centro s de computación, a los que acceden 13000 investigadores desde más de 30 países de todo el mundo, de áreas tan diversas como investigación biomédica, astronomía o física de altas energías”, explicó Alandes Pradillo.

En esa misma línea está DEISA-2, la Infraestructura Distribuida Europea para Aplicaciones de Supercomputación. Wolfgang Gentzsch, su responsable, explicó que este programa -también financiado por la Comisión Europea- conecta once centros de supercomputación de siete países europeos, entre ellos MareNostrum en el Barcelona Supercomputing Centre. DEISA entra ahora en su segunda fase. Para Gentzsch, es una infraestructura indispensable si de verdad la ciencia actual quiere avanzar al paso que le permite la tecnología.

“Hemos intentado poner de manifiesto que la solución a los retos actuales en computación científica no vendrá dada por una única tecnología sino por la combinación de varias de ellas tales como Grid, HPC y Cloud computing”, comentó Rubén Alvarez Timón, responsable de la organización del Esac E-Science Workshop.

También participaron en las jornadas de e-science Harry Enke, del Instituto de Astrofísica de Potsdam (Alemania); William O'Mullane, del Centro de Operaciones Científicas de la misión de la ESA Gaia, en ESAC; Daniel S. Katz, investigador del Instituto de Computación de la Universidad de Chicago y los Laboratorios Nacionales Argonne (Estados Unidos).

Copyright 2000 - 2014 © European Space Agency. All rights reserved.