Archivo diario: noviembre 10, 2008

Datos del pasado para predecir el cambio climático


Los físicos utilizan superordenadores en el proyecto EC-Earth

Regresar al pasado para llegar al futuro. Este procedimiento, aparentemente contradictorio, es la herramienta de los físicos que trabajan en la creación de los modelos climáticos y se esfuerzan en superar la ciencia descriptiva para anticipar el comportamiento atmosférico. Para lograrlo, necesitan todos los datos pasados y presentes disponibles y la extraordinaria capacidad de computación de sus superordenadores.

finis-terrae-2

El director de la División de Clima Global del Real Instituto Meteorológico de los Países Bajos (KNMI) y responsable del proyecto EC-Earth, Wilco Hazeleger, explica que el clima «tiene tantas mutaciones internas que es preciso recoger mucha información para estar seguros de que lo que se está produciendo es un cambio motivado por la acción del hombre, y no un proceso de orden natural». La correcta delimitación de los efectos de la acción humana será la que permita adoptar medidas de corrección adecuadas.

Los científicos encargados de la elaboración de modelos computacionales del clima trabajan en la captación de datos, posteriormente enjuiciados a través de leyes físicas con dos fines principales: tomar decisiones de ámbito global para actuar sobre el calentamiento global y poder anticipar las consecuencias regionales sobre actividades esenciales para el hombre, como la agricultura, el comportamiento de la tierra o la salud. La herramienta básica, por tanto, «son fórmulas físicas en las que se introducen nuevos factores, como la radiación, la termodinámica o los gases de efecto invernadero», explica el investigador.

finisterrae

Para conseguir que esos cálculos se lleven a cabo son precisos unos superordenadores con gran capacidad de computación. En Barcelona existe uno de los más potentes de Europa, el Mare Nostrum. El director del Área de Ciencias de la Tierra de este centro, José María Baldasano, explica que la capacidad de rendimiento de estas máquinas se mide en FLOPS (operaciones en coma flotante por segundo) y que el instalado en Barcelona cuenta con una potencia de 94 teraFLOPS y 10240 procesadores, lo que le lleva a ejecutar «en siete días una simulación que un ordenador normal tardaría 48 años en terminar»…[]

Via Publico.es