GPGPU encuentra su ranura en HPC - Calendae | Informática, Electrónica, CMS, Ciberseguridad

GPGPU encuentra su ranura en HPC

Hola, un placer verte por aquí. Soy Simón Sánchez y en esta ocasión te voy a contar sobre GPGPU encuentra su ranura en HPC

La NVIDIA GPU Technology Conference (GTC) comenzó el martes en medio de una avalancha de noticias que sugieren que el negocio HPC GPGPU se está moviendo rápidamente hacia la corriente principal. Solo cuatro años después de la introducción de la computación GPU de grado comercial, la tecnología se ha consolidado y está lista para extenderse a todos los dominios de aplicaciones que necesitan procesamiento de datos paralelo.

En esta etapa, la tecnología de procesamiento de GPU es particularmente evidente en el campo de la informática de alto rendimiento. Hasta la fecha, casi todos los fabricantes de equipos originales principales y secundarios que prestan servicios en este mercado han anunciado sistemas equipados con GPU NVIDIA, incluidos IBM, Cray, HP, SGI, Dell, Appro, T-Platforms, Bull, Supermicro y Tyan, entre otros. NVIDIA, que solía ofrecer su propia caja de GPU Tesla 1U independiente (productos de la serie S), ha abandonado el negocio de servidores, aparentemente entregando esa tarea al fabricante de servidores NextIO. Hasta la fecha, NVIDIA solo suministra tarjetas Tesla (serie C) y módulos (serie M) al mercado.

De hecho, no es lo suficientemente preciso. Un nuevo producto de Tesla que se anunció indirectamente esta semana es el X2070, una variante de la serie M diseñada específicamente para factores de forma de hoja extremadamente densos. El nuevo módulo ocupa menos de la mitad de la superficie de la tarjeta M2070 y, al igual que su predecesor, cuenta con conectividad PCIe y usa un disipador de calor pasivo para enfriar. El chip gráfico X2070 es el mismo que usa el M2070, por lo que tiene las mismas características de rendimiento (515 DP gigaflop) y capacidad de memoria (6 GB GDDR5). NVIDIA no ha hecho ningún anuncio formal del X2070. La única razón por la que somos conscientes de esto es porque Cray y T-Platforms anunciaron esta semana futuros blades basados ​​en el nuevo Tesla.

Cray agregará el X2070 como una opción en su línea de supercomputadoras XE6 («Baker»). «Esto es algo que creemos que es lo suficientemente maduro como para estar en un sistema de supercomputadora de fabricación escalable», dijo Barry Bolding, vicepresidente de la división de productos de Cray. En este punto, la compañía no está publicando ninguna información sobre el nuevo diseño de la hoja o incluso la fecha de disponibilidad de la nueva oferta, aunque Bolding dijo que están alineando las fechas de envío muy de cerca con el lanzamiento del X2070. En otras palabras, estarán listos cuando NVIDIA llegue con el hardware.

El proveedor ruso de clústeres HPC, T-Platforms, ha tenido mucho más que decir sobre su próxima hoja basada en Tesla X2070, a la que llaman TB2-TL. Conocido por diseñar blades extra densos, T-Platforms ha logrado empaquetar 16 blades, que constan de 32 GPU X2070 y 32 CPU Intel Xeon (procesadores de bajo voltaje L5600 «Westmere») en un chasis de 7U. Para maximizar el ancho de banda, cada X2070 se enruta a través de un chip Intel 5520 North Bridge y tiene un chip QDR InfiniBand de puerto único dedicado. Un solo contenedor entrega 17,5 teraflops de pico. Al igual que el Cray XE6, el TB2-TL está diseñado para grandes clústeres y supercomputadoras de petaescala.

Según Alexey Nechuyatov, director de marketing de productos de T-Platforms, están analizando la posibilidad de ofrecer TB2-TL en Estados Unidos, muy probablemente a través de un integrador de sistemas. A pesar de la presencia de proveedores establecidos en EE. UU. Con blades equipados con GPU, como Cray, IBM y Dell, Nechuyatov cree en el diseño único de su nueva oferta de GPU (sin mencionar el precio agresivo de alrededor de $ 300,000 por caja) podría encontrar una audiencia en los Estados Unidos. «Puede que seamos superados en número», dijo, «pero nunca en inferioridad numérica». T-Platforms planea que TB2-TL esté disponible para el mercado ruso en el cuarto trimestre de 2010 y para Europa en el primer trimestre de 2011.

IBM se suma a la carrera de las GPU blade, que agregará las GPU Tesla M2070 a su popular oferta BladeCenter. NVIDIA está particularmente feliz de que IBM esté accediendo a otro producto basado en Tesla, habiendo agregado el iDataPlex dx360 M3 en mayo. Ese producto emparejó dos CPU Intel con dos GPU Tesla M2050 en un servidor de montaje en rack. La nueva variante BladeCenter utiliza el HS22 como blade base, al que se pueden agregar hasta cuatro blades de expansión M2070. En su configuración máxima, se pueden colocar hasta 7 GPU en una bahía de 7U. Debería estar disponible en el cuarto trimestre de 2010.

Desde la perspectiva del software, la comunidad de desarrolladores parece estar enamorada de la aceleración de la GPU tanto como los OEM. NVIDIA estima que actualmente hay alrededor de 100.000 desarrolladores de GPU NVIDIA activos en la actualidad, comenzando desde cero en 2007. Gran parte de esta actividad está dirigida al código HPC. Ya sea astrofísica, dinámica molecular, bioinformática o modelado climático, el nivel de impacto en esas comunidades sigue aumentando. Los desarrolladores en estas áreas, y otras, están adaptando su código existente basado en CPU o desarrollando aplicaciones centrales específicamente dirigidas a plataformas GPU.

En el modelado climático y meteorológico, en particular, existe una gama de modelos que se dirigen o redirigen a plataformas GPU a través de CUDA. Incluyen códigos como el modelo de predicción e investigación meteorológica (WRF) que se está desarrollando en el NCAR y en otros lugares; el modelo meteorológico ASUCA desarrollado por Tokyo Tech y la Agencia Meteorológica de Japón; y el modelo icosaédrico no hidrostático (NIM) en NOAA. También hay grandes esfuerzos para simulaciones de tsunamis, modelos de CO2 y códigos de circulación oceánica realizados en plataformas GPU.

Las herramientas de desarrollo CUDA fueron la clave para todo el ecosistema. Gracias al dominio inicial de NVIDIA en GPGPU, CUDA C / C ++ se ha convertido en el entorno de programación de GPU más utilizado por los desarrolladores. Incluso se habla de dirigir CUDA a las CPU, ya que el lenguaje es inherentemente adecuado para arquitecturas multinúcleo y de muchos núcleos. «Hasta cierto punto, CUDA se está convirtiendo en el modelo de programación paralela más utilizado», dijo Sumit Gupta, gerente senior de productos del Tesla GPU Computing Group de NVIDIA. «Entonces, si una universidad quiere enseñar programación paralela, a menudo termina haciendo programación GPU».

Hoy en día, hay varios intentos de crear puertos de CPU CUDA. Hay dos proyectos académicos: uno de la Universidad de Illinois, llamado Urbana-Champaign MCUDAy otro de Georgia Tech llamado Ocelot. Ahora The Portland Group (también conocido como PGI), ha intensificado un compilador de CPU CUDA comercial. En el GTC de esta semana, PGI anunció sus intenciones de ofrecer un CUDA C para la plataforma de desarrollo x86, que espera demostrar en SC10 en noviembre.

Si tiene éxito, los desarrolladores podrán escribir aplicaciones CUDA que se puedan ejecutar en GPU o CPU. Esta, por supuesto, fue la idea detrás de OpenCL, el lenguaje estándar abierto para arquitecturas multinúcleo / muchos núcleos. Pero debido a que NVIDIA publica las API de CUDA, también es un estándar abierto para todos los propósitos prácticos. Cualquiera, incluido AMD, por cierto, podría crear un puerto CUDA para cualquier procesador con capacidades de hardware paralelas. NVIDIA oficialmente afirma ser agnóstico sobre lo que la gente usa para programar su hardware, pero el entusiasmo de la compañía por su software CUDA de fabricación propia es bastante claro.

Dejando a un lado el soporte de CPU, la comunidad GPGPU ISV continúa ganando impulso, como es evidente si navega por la sala de exposición y la lista de sesiones en GTC. Además del procesamiento científico, la tecnología también se ha extendido a la inteligencia empresarial (Jedox Palo, Empulse Parstream y Milabra Display Ads), la automatización de fábricas (Dalsa y MvTech), la automatización del diseño electrónico (Rocketick y Agilent) y al trazado / renderizado de rayos (Autodesk 3ds Max, Bunkspeed y Lightworks).

El martes, ANSYS anunció que implementó la aceleración de GPU para su producto ANSYS Mechanical, un paquete de software ampliamente utilizado para proyectos industriales. Usando la GPU, lograron velocidades 2 veces más rápidas que su implementación de solo CPU. Esta es una ganancia bastante modesta en comparación con 10x a 500x las aceleraciones que algunas personas afirman para códigos más científicos. Pero para el diseño industrial, reducir a la mitad los tiempos de simulación es un gran problema.

La propia NVIDIA utiliza el software de diseño de chips Agilent y ejecuta la aplicación en un pequeño clúster de GPU interno. La compañía también está evaluando la herramienta de verificación de chips Rocketick acelerada por GPU. Los primeros resultados parecen prometedores según Gupta de NVIDIA. «También usamos ANSYS Mechanical para nuestros proyectos y definitivamente usaremos la versión GPU», dijo, «Así que estamos comiendo nuestra comida para perros».

No te olvides compartir en tu Facebook para que tus colegas lo disfruten

??? ? ? ???

Comparte