Procesamiento de números, procesamiento de datos y eficiencia energética: el truco de HPC

Hola de nuevo. Soy Simón Sánchez y hoy hablaremos sobre Procesamiento de números, procesamiento de datos y eficiencia energética: el truco de HPC

En el mundo de la informática de alto rendimiento, hay tres métricas distintas en juego: velocidad de procesamiento de números; velocidad de procesamiento de datos; y eficiencia energética. ¿Puede una computadora sobresalir en los tres, o es nuestro mejor activo intentar algo menos que un triplete?

Una gran cantidad de métricas

En el pasado, HPC dominó el crujido de números. La medida fue LINPACK, la métrica era FLOPS (operaciones de punto flotante por segundo) y la lista era TOP500. Actualmente, el crujido de los datos ha aumentado en importancia y visibilidad y probablemente esté a la par con el crujido de los números. La medida aquí es un conjunto en evolución de kernel de algoritmos gráficos, la métrica es TEPS (bordes cruzados por segundo) y la lista es Gráfico 500.

Al mismo tiempo, la carrera hacia la cima, que antes no tenía restricciones, está siendo reemplazada por una nueva forma de competencia, restringida por la electricidad. Entonces el Verde500 lista. Aquí, la medida es la eficiencia energética y la métrica es MFLOPS / vatio.

La restricción explícita, introducida como un objetivo de diseño para una computadora exaflop, es un exaflop / 20 MW o 50 gigaflops por vatio. La computadora que actualmente encabeza la lista Green500 funciona a poco más de dos gigaflops por vatio. Por tanto, el objetivo de diseño de 20 MW es bastante ambicioso. Sin embargo, ahora ha llevado la eficiencia energética a la vanguardia de HPC. Ya no es solo para los amantes de los árboles.

Soledad en la cima

La parte superior de cada una de estas listas es un lugar solitario y caro para vivir. La mayoría de las máquinas nunca lo alcanzarán, pero este es el ámbito en el que se producen muchas innovaciones. Si solo unas pocas máquinas pueden llegar a la cima, probablemente no se pueda permitir que sean altamente efectivas en solo un pequeño conjunto de aplicaciones. El costo es simplemente demasiado alto. Otras oportunidades de inversión en investigación probablemente podrían superar a una máquina específica.

Entonces, parece que en el extremo superior de HPC, ahora estamos buscando computadoras de bajo consumo que funcionen bien en términos de procesamiento de datos y números. ¿Podemos conseguir los tres? Echemos un vistazo al estado actual de la técnica.

Comparaciones de la lista Graph-Top-Green 500

La versión actual de la lista TOP500 menciona la eficiencia energética para una gran cantidad de artículos, mientras que la lista Green500 proporciona eficiencia energética para todos los artículos. Mientras tanto, la lista del gráfico 500 todavía es un trabajo en progreso. La versión actual contiene solo 49 computadoras separadas y no proporciona ningún mapeo de estas a la lista TOP500 o Green500. Sin embargo, se pueden encontrar al menos 19 computadoras Graph 500 en las otras dos listas. Entonces podemos hacer al menos una comparación parcial de estas listas, cuyos resultados se muestran a continuación.

Los apodos de las máquinas utilizadas se explican por sí mismos, excepto quizás «NSQP2», que se refiere a la NNSA-Office of Science BlueGene / Q Prototype II. Las máquinas se enumeran en el orden de su rango promedio en las tres listas.

Se pueden sacar algunas conclusiones obvias:

  • Tsubame es el claro ganador absoluto.
  • Un par de autos muestran un equilibrio razonable en las tres métricas: Tsubame y Gordon
  • Si uno elige Superior y verde, Tsubame y Gordon siguen siendo los mejores.
  • por Gráfica y verde, NSQP2 gana, Tsubame está en segundo lugar y Endeavour-W, Endeavour-S y Gordon se ven bastante bien.
  • Para elegir Grafica y empieza, sorprendentemente hay muchas buenas opciones, que incluyen: Tsubame, Hopper, Intrepid, Jaguar, Jaguar PF, Kraken, Kraken-F, Lomonosov, Franklin, Lonestar y Red Sky.

Los cinco primeros del TOP500

Observe que tres de las cinco computadoras TOP500 principales faltan en la comparación: Computadora K (# 1); Tianhe-1A (nº 2); y nebulosas (# 4). Esto se debe a que actualmente no están incluidos en la lista de la carta 500. Jaguar (n. ° 3) y Tsubame (n. ° 5) están presentes. Si se agregan las máquinas que faltan, la comparación se ve así:

La única comparación ahora posible es Superior y verde. Como se muestra arriba, Tsubame gana de nuevo. Sin embargo, las tres nuevas voces obtienen puntajes más altos que Gordon.

¿Puede un coche tenerlo todo?

Según el muestreo limitado utilizado aquí, parece que la respuesta es sí. Tsubame está liderando el camino. Felicitaciones al profesor Satoshi Matsuoka y su equipo en el Centro de Computación e Información Científica Global (GSIC) del Instituto de Tecnología de Tokio. Será interesante ver si esta conclusión es cierta a medida que avanzamos por el camino hacia la exaescala.

Salsa secreta

Aquellos curiosos sobre la salsa secreta de Tsubame pueden consultar el Arquitectura del sistema Tsubame2 información en el sitio web de GSIC. Aquí hay un breve extracto:

TSUBAME2 es una supercomputadora de producción operada por Centro mundial de información sobre ciencias e informática (GSIC), Instituto de Tecnología de Tokio en colaboración con nuestros socios industriales, incluidos NEC, HP, NVIDIA, Microsoft, Voltaire. Desde el otoño de 2010, ha sido una de las supercomputadoras más rápidas y ecológicas del mundo, con un rendimiento máximo de 2.4 PFlops gracias a la agresiva aceleración de la GPU, lo que permite a los científicos disfrutar de una computación mucho más rápida y más grande que nunca. . Esta es la segunda instancia de nuestras supercomputadoras de la serie TSUBAME, siendo la primera, como puede imaginar, TSUBAME1. También empleó varias tecnologías de aceleración HPC de vanguardia, como las GPU ClearSpeed ​​y NVIDIA, donde aprendimos muchas lecciones técnicas importantes que finalmente jugaron un papel crucial en el diseño y la construcción de nuestra última supercomputadora. En comparación con su predecesor, TSUBAME2, aunque mantiene su consumo de energía casi igual que antes, logra un aumento de 30 veces en el rendimiento al heredar y mejorar aún más los diseños arquitectónicos exitosos.

Los puntos clave de la arquitectura mencionados son:

  • Amplio uso de aceleradores de GPU
  • Anchos de banda intra e internodos muy mejorados
  • Almacenamiento compartido de gran ancho de banda de Petascale
  • Almacenamiento local ultrarrápido (SSD)

¿Qué pasa con el crujido de números versus el crujido de datos?

Otra observación digna de mención del Grafica y empieza la comparación es que hay varias computadoras que parecen razonablemente bien equilibradas para una combinación de procesamiento de números y tareas de procesamiento de datos. La sabiduría convencional es que el procesamiento de números y el procesamiento de datos aprovechan atributos de computadora significativamente diferentes, y que una sola arquitectura de computadora puede no funcionar bien para ambos tipos de tareas. El muestreo limitado utilizado aquí parece contradecir este punto de vista.

Advertencias

Como se mencionó anteriormente, la lista de gráficos 500 es un trabajo en progreso. A medida que madura y la lista se expande para incluir más máquinas, las conclusiones que se presentan aquí pueden cambiar.

En las comparaciones aquí realizadas, se le atribuyó igual peso a la importancia del posicionamiento en cada una de las listas. Si se asignan diferentes pesos, las conclusiones pueden cambiar. Sin embargo, parece que cualquier conjunto de ponderaciones «razonables» produciría esencialmente las mismas conclusiones.

—–

Acerca de

Gary M. Johnson es el fundador de Soluciones de ciencia computacional, LLC, cuya misión es desarrollar, apoyar e implementar soluciones para la comunidad científica y de ingeniería global.

El Dr. Johnson se especializa en la gestión de la informática de alto rendimiento, las matemáticas aplicadas y la investigación científica computacional; promoción, desarrollo y gestión de centros informáticos de alto rendimiento; desarrollo de una política nacional de ciencia y tecnología; y la creación de programas de educación e investigación en ingeniería y ciencias computacionales.

Ha trabajado en la academia, la industria y el gobierno. Ha sido profesor titular en la Universidad Estatal de Colorado y la Universidad George Mason, ha sido investigador en el Centro de Investigación United Technologies y ha trabajado para el Departamento de Defensa, la NASA y el Departamento de Energía.

Se graduó de la Academia de la Fuerza Aérea de los Estados Unidos; tiene títulos avanzados de Caltech y el Instituto von Karman; y tiene un Ph.D. en ciencias aplicadas de la Universidad de Bruselas.

No te olvides compartir en tus redes sociales para que tus amigos lo sepan

??? ? ? ???

Comparte