El equipo de EPCC revela el arma secreta detrás de la puntuación ganadora de Linpack - Calendae | Informática, Electrónica, CMS, Ciberseguridad

El equipo de EPCC revela el arma secreta detrás de la puntuación ganadora de Linpack

Hola, un placer verte por aquí. En el teclado Simón Sánchez y esta vez hablaremos sobre El equipo de EPCC revela el arma secreta detrás de la puntuación ganadora de Linpack

Cuando el equipo EPCC anunció por primera vez que había obtenido el «Linpack más alto» en la competencia de grupos de estudiantes de ISC’14 con una puntuación de 10,14 teraflops, dijeron estar atentos para conocer los detalles de su estrategia. En una reciente Blog, los cuatro estudiantes, todos en el programa de maestría de HPC, describen cómo lograron el puntaje más alto de Linpack en la competencia de grupos de estudiantes, superando los 10 teraflops en el proceso.

El equipo explica que los puntos de referencia de HPCC y Linpack se incluyen en la competencia todos los años, pero también hay tres aplicaciones adicionales que los estudiantes aprenden unos meses antes de que se lleve a cabo la competencia. Esto les da la oportunidad de modificar su diseño, aprender a usar aplicaciones y optimizarlas para su sistema. También hay dos desafíos «sorpresa» adicionales que no se anuncian hasta que comienza la competencia.

El equipo de EPCC está particularmente agradecido a su patrocinador, Boston Limited, así como al proveedor CoolIT Systems por proporcionarles hardware y tecnología de vanguardia.

La configuración se describe a continuación:

«El clúster utilizado para la competencia tenía 4 nodos, cada uno con 2 CPU Intel Xeon E5 2680 v2, 2 GPU NVIDIA K40 y memoria ECC registrada DDR-3 de 64 GB y SSD de la serie 510 de Intel (7 en total). En términos de interconectividad , utilizamos Mellanox de 12 puertos 40 / 56GbE «.

La refrigeración se realizó principalmente mediante refrigeración líquida con el sistema de refrigeración CoolIT Rack DCLC AHx montado directamente en las CPU Intel Xeon E5-2680 v2 y las GPU NVIDIA K40. En esta configuración, tanto el procesador como el acelerador de la GPU emiten calor al líquido circulante, que lo transporta a un intercambiador de líquido-aire montado en la parte superior del bastidor.

El sistema fue diseñado con el punto de referencia Linpack como foco principal, ya que el premio «Highest Linpack» es el único en el que se comparan los resultados de un año a otro.

«Elegimos incorporar aceleradores NVIDIA K40 en nuestro sistema», dice el equipo, «ya que los datos recopilados en los puntos de referencia mostraron que ofrecen flops muy altos por vatio. Decidimos que, dado que la mayoría de los cálculos se realizarían en las GPU , habríamos eliminado tanta sobrecarga como fuera posible al tener la misma cantidad de CPU y GPU en la configuración final «.

El equipo realmente considera que el enfriamiento líquido es su arma secreta. La tecnología CoolIT les permitió eliminar un gran porcentaje de ventiladores del sistema. Solo cuatro de los 20 fanáticos originales permanecieron en cada servidor. El intercambio de calor solo consumió alrededor de 90 W en total y esto se redujo aún más al apagar algunos ventiladores de intercambio de calor.

El equipo también pasó muchas horas probando para determinar la configuración óptima dado el diseño del clúster y los límites de potencia de 3kW de la competencia.

«Al mantener documentación detallada de cada prueba realizada, pudimos adaptarnos rápidamente a los cambios en la configuración de nuestro hardware y eliminar todos los posibles fallos de cada vatio que consumía el sistema», dicen.

El equipo decidió utilizar todos los 80 núcleos de CPU del sistema y las ocho GPU con su reloj base de 745 MHz. Dado que el binario HPL hizo un uso eficiente de las GPU, el beneficio mínimo proporcionado por relojes más altos no habría valido la pena el consumo extra de energía, según los estudiantes.

Compruebe el equipo uno Blog para una cuenta completa.

Deberías compartir en en tu Twitter y Facebook para que tus amigos lo consulten

??? ? ? ???

Comparte