La simulación de galaxias pone a prueba el cúmulo HPC de los investigadores - Calendae | Informática, Electrónica, CMS, Ciberseguridad

La simulación de galaxias pone a prueba el cúmulo HPC de los investigadores

Hola, un placer verte por aquí. Te habla Simón Sánchez y en esta ocasión te voy a contar sobre La simulación de galaxias pone a prueba el cúmulo HPC de los investigadores

Intentar encajar un modelo de una galaxia completa en una computadora es aún más difícil de lo que parece, incluso cuando esa computadora es un clúster de 800 núcleos con más de un terabyte de memoria. Los investigadores del Instituto de Cosmología Computacional (ICC) de la Universidad de Durham lo saben bien, porque eso es exactamente lo que están tratando de hacer. Un artículo en silicon.com de esta semana documenta cómo los cosmólogos deben desarrollar estrategias creativas de modelado para abordar las limitaciones de las máquinas HPC.

Los investigadores de ICC tienen acceso a un clúster con 800 núcleos de procesador AMD, 1,6 TB de memoria y 300 TB de almacenamiento en disco. Es una máquina de tamaño decente, pero para las simulaciones de formación de galaxias, los investigadores luchan constantemente con las limitaciones del hardware. Tomemos el almacenamiento en disco, por ejemplo. Una sola ejecución de simulación sobre el efecto de la materia oscura en la formación de galaxias puede producir 20 TB de datos, lo que significa que los científicos descartan constantemente los datos más antiguos o los guardan en una cinta. Y según el artículo, el clúster no es lo suficientemente grande ni potente para manejar incluso modelos a gran escala:

Los físicos necesitan simplificar los modelos cosmológicos que utilizan para obtener aquellos que producen conjuntos de datos lo suficientemente pequeños como para ser procesados ​​con precisión por los chips de 64 bits en el grupo de supercomputación y que puedan caber en la memoria disponible del grupo.

Sin embargo, esto es mejor de lo que la mayoría de los cosmólogos tenían disponible incluso hace unos años. En ese momento, solo podían simular unos pocos miles de partículas por galaxia (por lo que cada partícula tenía que representar entre 10.000 y 100.000 estrellas). Hoy esa granularidad es mejor que dos órdenes de magnitud.

Mejor aún, el Instituto recibirá un nuevo clúster en diciembre que tiene mucha más capacidad de procesamiento, memoria y almacenamiento que su configuración actual. El nuevo hardware permitirá a los investigadores crear modelos de alta fidelidad y «obtener un cálculo mucho más realista».

Puedes compartir en en tu Twitter y Facebook para que tus colegas lo sepan

??? ? ? ???

Comparte