GPGPU, China busca capitalizar los éxitos de supercomputadoras de 2010 - Calendae | Informática, Electrónica, CMS, Ciberseguridad

GPGPU, China busca capitalizar los éxitos de supercomputadoras de 2010

Hola otra vez. Te habla Simón Sánchez y en el día de hoy te voy a hablar sobre GPGPU, China busca capitalizar los éxitos de supercomputadoras de 2010

En lugar de pasar por una letanía de predicciones de espacio de computación de alto rendimiento para 2011, podría decirse que es más instructivo señalar dos tendencias claras establecidas en 2010 que cambiarán la cara de HPC en los próximos cinco a diez años: el aumento de la supercomputación GPGPU y el surgimiento de China como una superpotencia HPC.

Como informamos el año pasado, las máquinas petaflop impulsadas por GPU y la supercomputación china han surgido simultáneamente en los últimos años. La nación asiática ha sido muy agresiva al aprovechar las GPGPU para construir grandes máquinas. Esto culminó con China ocupando el primer lugar en la lista TOP500 de noviembre de 2010 con la supercomputadora Tianhe-1A de 2.5 petaflop, impulsada por GPU NVIDIA Tesla.

Sin embargo, las tendencias apenas comienzan. Hasta la fecha, solo 11 de los 500 sistemas principales funcionan con GPGPU, lo que representa solo el 2% del total. Pero tres de ellos están en el top 5 y siete en el top 100. Un año antes, solo había dos supercomputadoras equipadas con GPU en toda la lista. Estados Unidos y Europa, que han desarrollado gran parte de la tecnología central de hardware y software, se han quedado rezagados hasta ahora en la adopción de GPGPU para construir máquinas petascale.

En cuanto a la presencia nacional, EE. UU. Sigue siendo, con mucho, la potencia de supercomputación dominante con 282 de los 500 sistemas principales. China afirma solo 41 sistemas, lo que la coloca en un distante segundo lugar. Pero eso es un aumento con respecto a los 21 mejores autos de 2009. Curiosamente, ningún otro país en la lista está acelerando su presencia tan rápidamente.

La expectativa es que ambas tendencias continúen en 2011 y más allá. En el reciente foro «Analyst Crossfire» celebrado en SC10 en Nueva Orleans (los videos de YouTube se pueden encontrar en tres partes: aquí, aquí, es aquí), los problemas de la computación GPGPU y el surgimiento de China como un actor importante de HPC se han discutido extensamente. Los cuatro ponentes: Thomas Sterling, profesor de Ciencias de la Computación en LSU, Jay Boisseau, Director del Centro de Computación Avanzada de Texas (TACC), Peter ffoulkes, Vicepresidente de Computación Adaptativa de Marketing; y Michael Wolfe, ingeniero de compilación sénior de PGI, coinciden en general en que China y la supercomputación de GPU consolidarán los avances logrados en 2010, pero que las perspectivas a largo plazo para las GPGPU son menos seguras.

Boisseau de TACC y ffoulkes de Adaptive señalaron que la tecnología GPGPU para construir supercomputadoras de petaescala está disponible para todos, pero fueron los chinos quienes primero desplegaron sus recursos. (De hecho, los japoneses con su sistema TSUBAME fueron los primeros en adoptar la supercomputación GPGPU, culminando con la máquina TSUBAME 2.0 número 2 en noviembre de 2010). Sin embargo, los chinos se movieron intencionalmente para construir una serie de máquinas de petaescala o casi de petaescala, determinando que la tecnología GPGPU era el camino más corto hacia ese fin. «Yo creo que ellos [the Chinese] serán un elemento fijo en el TOP500 y especialmente en el top 10 durante varios años, y más allá «, dijo Boisseau.

Los chinos tienen actualmente 5 de sus 41 mejores máquinas en el top 100 y están buscando aprovechar esto como lo hacen construir su infraestructura de supercomputación. «Se están convirtiendo rápidamente en una de las principales potencias políticas del mundo y HPC es parte de ella», dijo ffoulkes.

Sterling, de LSU, señaló que los chinos no se están abriendo camino simplemente hacia los escalones superiores de la supercomputación. Las mejores máquinas Tianhe-1A se basan en un diseño de sistema desarrollado internamente, con una interconexión de red personalizada y un procesador de E / S desarrollado a partir de silicio. «A diferencia de nosotros, tienen una larga tradición de planes quinquenales y se han mantenido en curso», dijo Sterling. Y lo harán aquí también. No tienen ninguna duda, a través de los procedimientos y métodos que han aplicado, de que serán líderes en este campo antes del final de esta década ”. De hecho, China ha declarado que quiere ser la primera nación en desplegar una máquina de exaescala.

Desde el punto de vista de Sterling, Estados Unidos se encuentra en una profunda crisis con respecto a la investigación tecnológica de HPC. «Los demócratas no entienden la tecnología y los republicanos no la financian a menos que sea para investigación de defensa», dijo. “Blue Waters estará disponible pronto y actuará como un placebo. Volveremos a estar en la parte superior de la lista y pensaremos que lo estamos haciendo bien, cuando en realidad estamos muy atrasados ​​en la búsqueda de futuras máquinas para finales de la década «.

Es menos seguro si esas máquinas estarán basadas en GPGPU. Otros aceleradores como el procesador Many Integrated Core (MIC) de Intel no debutarán hasta dentro de un año más o menos. Y de AMD Los procesadores Fusion (CPU-GPU) se están abriendo camino hacia el lado del cliente del ecosistema. También es probable que la hoja de ruta de NVIDIA para sus GPU discretas durante los próximos años produzca algo irreconocible como procesador gráfico de la última década.

También es posible que los aceleradores, las GPU o cualquier otra cosa no ocupen un lugar destacado en las máquinas más grandes. Wolfe de PGI señaló que los únicos dos sistemas 10 petaflop anunciados públicamente, Blue Waters basado en Power7 en los EE. UU. Y Kei Soku Keisanki (también conocido como «computadora K») basado en Sparc64 VIIIfx en Japón, también dependerán únicamente de las CPU. si los de gama alta.

Wolfe cree que el MIC de Intel es una «arquitectura fascinante» que tiene el potencial de desbancar el dominio actual de NVIDIA en el campo de la aceleración HPC. Y las GPU AMD (ATI) tienen la ventaja de rendimiento, dice. Este podría ser el factor decisivo una vez que se establezca un campo de juego nivelado para el middleware GPGPU, que es lo que AMD busca con la API OpenCL OpenCL. Esa tecnología es aún más atractiva en comparación con la hoja de ruta Fusion CPU-GPU de AMD, que eventualmente llegará al lado del servidor de la empresa.

Desde el punto de vista de ffoulkes, la GPU será solo una de las varias arquitecturas de acelerador que impulsará la futura maquinaria HPC. Sin embargo, cree que eventualmente los aceleradores seguirán el mismo camino que las unidades de punto flotante (FPU), que eran libres como coprocesadores discretos antes de integrarse en la CPU. La integración de la lógica del acelerador en un procesador estándar hará que la tecnología sea ubicua y esencialmente gratuita, según ffoulkes. «Y luego la clave se convierte en la programabilidad», dijo.

Sterling es aún más circunspecto sobre la longevidad de la GPGPU en HPC, al menos en su forma actual. «En cuanto a la GPU, es el sabor del mes», dijo. «Hemos estado aquí antes con procesadores de matriz conectados».

Al igual que otros, Sterling cree que las arquitecturas heterogéneas serán el modelo del futuro, pero los componentes del acelerador finalmente se integrarán en el chip, en Fusion. Esto abordará gran parte de los problemas de latencia y ancho de banda que actualmente limitan el rendimiento en las GPU discretas conectadas a PCI. También simplificará el modelo de programación.

«Lo que desarrollaremos es un modelo de ejecución uniforme para una arquitectura de sistema no uniforme escalable», dijo Sterling. «Ahí es cuando llegamos».

No te olvides compartir en una historia de tu Instagram para que tus colegas opinen

??? ? ? ???

Comparte