Los expertos en HPC proporcionan el pegamento entre las supercomputadoras y la ciencia del clima

Hola y mil gracias por leerme. Soy Simón Sánchez y en esta ocasión te voy a contar sobre Los expertos en HPC proporcionan el pegamento entre las supercomputadoras y la ciencia del clima

Algunos de los modelos de supercomputación más importantes para la investigación del cambio climático han sido desarrollados por la Administración Nacional Oceánica y Atmosférica (NOAA) y, en particular, Laboratorio de dinámica de fluidos geofísica (GFDL) de la Universidad de Princeton. Los investigadores de GFDL son expertos en ciencia del clima, pero al igual que muchos científicos, a menudo están menos familiarizados con los caprichos de la tecnología de supercomputación. Aquí es donde entra HPTi.

HPTi (High Performance Technologies Inc.) fue adquirida por DRC Company en julio, pero mantiene su autonomía y misión como contratista federal para soporte tecnológico de alta gama. La fortaleza de la compañía radica en su experiencia en HPC y su capacidad para aplicar la investigación científica y computacional a las aplicaciones de sus clientes. Para NOAA, HPTi proporciona conocimientos, asesoramiento y formación sobre informática de alto rendimiento. Como parte de ese contrato, HPTi apoya el trabajo climático de GFDL, ayudando a los investigadores a actualizar sus modelos climáticos y brindando orientación para futuras herramientas de hardware y software de supercomputación.

Una de las principales razones por las que el trabajo de la GFDL es tan importante es que sus resultados se incorporan en evaluaciones climáticas compuestas por Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC). Aunque el IPCC utiliza los resultados de la investigación climática de otros laboratorios, el Modelos GFDL son fundamentales para sus evaluaciones. Y los informes mismos se han convertido en el estándar de facto para los responsables de la formulación de políticas climáticas, los científicos, la prensa y el público.

El nicho que HPTi se ha labrado con GFDL ha permitido a los investigadores del laboratorio centrarse en la física del modelo, dejando el núcleo de HPT al personal de HPTi de científicos computacionales, desarrolladores de software, trabajadores de soporte de sistemas y otros consultores. Debido a que la empresa proporciona gran parte del pegamento computacional para los investigadores, HPTi tiende a mantener relaciones (y contratos) a largo plazo con agencias como NOAA. En este caso, la compañía ha estado apoyando el esfuerzo de investigación climática de GFDL desde 2008.

La continuidad del compromiso es importante. El hardware de HPC para el trabajo climático se actualiza cada pocos años, lo que requiere una reevaluación del software y las herramientas de desarrollo de software. Según William Cooke, un asociado senior que trabaja con el equipo de modelado climático de GFDL, los sistemas HPC utilizados para ejecutar los modelos han cambiado drásticamente en los últimos cuatro años.

Cooke dice que hace solo unos años GFDL usó una supercomputadora Altix SGI de 8.000 núcleos, con una arquitectura de memoria compartida. Hace un par de años, cambiaron a una máquina Cray XT6, con más de 30.000 núcleos. Durante los próximos meses, actualizarán el sistema a un XE6, agregando otros 78,000 núcleos en el proceso. Una vez instalado, ese sistema representará un pico de petaflop en la potencia informática.

Idealmente, a los científicos simplemente les gustaría recompilar su software de aplicación y ejecutarlo en la nueva máquina, pero en la práctica eso no es lo que sucede. Las actualizaciones de hardware, especialmente el recuento de núcleos mucho mayor, requieren modelos climáticos cambiantes si desea aprovechar la potencia informática adicional.

El poder adicional también permite a los investigadores considerar agregar características adicionales, como química atmosférica, retroalimentación de CO2, floraciones de fitoplancton, morfologías más detalladas, etc. Pero más directamente, los núcleos adicionales se pueden utilizar para aumentar la fidelidad de los modelos existentes.

Por ejemplo, los modelos climáticos actuales utilizan una resolución cuadrada de dos grados para la atmósfera y la tierra y una resolución de un grado para el océano y el hielo. Para obtener resultados más detallados, a los científicos les gustaría reducir el modelo atmósfera / tierra a medio grado o más y el modelo océano / hielo al menos a un cuarto de grado. La simulación resultante será mejor para capturar efectos a pequeña escala, como la actividad de los huracanes y la intensidad de las lluvias o sequías regionales.

Sin embargo, para que todo funcione, los patrones deben coserse, lo que requiere un software especial llamado acoplador. Según Cooke, este es otro componente crítico con el que HPTi ha pasado mucho tiempo. Y en esta área, dice, el aumento en la cantidad de núcleos que vino con la supercomputadora Cray ha obligado a reescribir los algoritmos subyacentes. La nueva versión no solo permitió que el modelo emparejado se ejecutara en más de 10,000 núcleos, sino que también redujo el tiempo de simulación a la mitad.

Esto es significativo dada la cantidad de tiempo que la computadora dedica a estos modelos climáticos. La ejecución de una simulación de 20 a 30 años lleva aproximadamente una semana en el sistema actual, pero una predicción de cientos de años modelo puede vincular la misma máquina hasta seis meses. El software ampliado se traduce en más ejecuciones para los investigadores, lo que les permite refinar los resultados y crear más escenarios hipotéticos.

En el backend de la simulación, el cálculo se convierte en un problema típico de big data. Según Cooke, incluso con una resolución de dos grados, los modelos generan alrededor de medio petabyte por mes, y esto ha estado sucediendo durante los últimos dos años. Con una resolución más fina, estos conjuntos de datos serán aún más grandes.

Actualmente, los datos sin procesar se envían diariamente a la red de investigación de NOAA (N-Wave) para ser procesados ​​posteriormente en GFDL. Pero a medida que los modelos generan más y más datos, tienden a quedarse atascados, por lo que la gestión del ciclo de vida de los datos se está convirtiendo en un componente fundamental de la investigación. Esta es otra área para la que HPTi proporciona orientación.

El Quinto Informe de Evaluación del IPCC, que incluirá el último trabajo de simulación de GFDL, está actualmente en curso y se espera que esté terminado en 2013-2014. El informe, la investigación y los datos en los que se basa estarán disponibles en el dominio público.

Puedes compartir en en tu Twitter y Facebook para que tus colegas lo disfruten

??? ? ? ???

Comparte