Computación de alta productividad para el resto de nosotros - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Computación de alta productividad para el resto de nosotros

Hola otra vez. Yo soy Simón Sánchez y esta vez te voy a contar sobre Computación de alta productividad para el resto de nosotros

El martes, después de una demora de casi cinco meses, DARPA seleccionó a Cray e IBM como ganadores de la Fase III por su programa de Sistemas de Computación de Alta Productividad (HPCS), la iniciativa del gobierno para crear sistemas de computación a petaescala de alta productividad. Cada proveedor recibirá aproximadamente 250 millones de dólares en fondos durante los próximos cuatro años para completar el diseño de sus sistemas y construir los primeros prototipos de HPCS. El anuncio fue quizás la noticia más esperada del año para la comunidad HPC.

Si cree que el programa DARPA HPCS solo es interesante para usuarios de supercomputadoras de clase de capacidad, piénselo de nuevo. HPCS, en su interpretación más ambiciosa, es un intento de impulsar el interés a través del corazón de la computación en clúster. Y el gobierno acaba de adelantar casi 500 millones de dólares para hacerlo.

El modelo de programación de clúster / MPI de Beowulf, que ha disfrutado de diez años de dominio y ha empujado a HPC a la empresa, puede estar cerca de la pared. A medida que el rendimiento de los procesadores de múltiples núcleos excede el ancho de banda de las interconexiones de los nodos informáticos y el número de estos procesadores aumenta a miles por sistema, las dificultades de escalar aplicaciones en una arquitectura de memoria distribuida se vuelven cada vez más evidentes. Además, a medida que el costo de desarrollar aplicaciones HPC y alimentar máquinas comienza a dominar el precio de la supercomputación, la eficiencia del modelo de clúster comienza a parecer cuestionable.

Hay que reconocer que el gobierno tuvo la previsión de comenzar a planificar el modelo HPC de próxima generación hace cuatro años. A mitad del programa HPCS, el resultado final, aunque no está asegurado, está al menos a la vista.

«Este es un viaje en el que hemos estado desde 2002 y culminará a finales de 2010 con el desarrollo de una capacidad de sistema de procesamiento de alto rendimiento a petaescala», dijo Charles Holland, director de la Oficina de Procesamiento de Tecnología de la Información de DARPA. “Este programa no se está ejecutando para producir una computadora petaflop, en comparación con el Top500 o cualquier otra métrica arbitraria. Este programa trata sobre el desarrollo de una capacidad de procesamiento altamente productiva que logre rendimiento en código de aplicación real, como lo demuestran las suites de referencia que hemos elegido. »

El énfasis del programa HPCS en aumentar la productividad del usuario en lugar de simplemente aumentar FLOPS es un intento de cambiar la cultura Top500 de supercomputación. Se basa en el entendimiento de que el rendimiento de Linpack solo está relacionado de forma remota con el valor real para los usuarios finales. Esta visión Top500 del mundo de la supercomputación se desvanecerá lentamente a medida que se construyan más sistemas que desacoplan el rendimiento de Linpack con la utilidad del mundo real.

Si bien los sistemas iniciales de IBM y Cray serán estrictamente máquinas de clase de capacidad, el programa HPCS de DARPA tiene como objetivo desarrollar tecnologías que se adapten a una gama más amplia de soluciones HPC. Queda por ver exactamente cómo sucederá esto, pero como ambos proveedores están invirtiendo grandes sumas de dinero en el esfuerzo, debería haber una fuerte motivación para producir tecnologías que se puedan aplicar a una variedad de soluciones comerciales.

Sin duda, Cray ha declarado abiertamente sus planes de integrar el trabajo de HPCS con sus plataformas «Baker» (2009) y «Granite» (posteriores a 2010). Mover estas tecnologías a simples máquinas mortales es más problemático, ya que Cray tiende a gravitar hacia soluciones de alta gama. Por otro lado, el trabajo del compilador PGI que resulta de la asociación del Portland Group con Cray tiene una buena posibilidad de encontrar una aplicabilidad más amplia.

IBM ha sido más cauteloso con su diseño HPCS, por lo que es más difícil adivinar qué tecnología podría encontrar su camino en otros sistemas HPC. Claro, el procesador POWER7 de IBM, el sistema de archivos paralelo general (GPFS) y el entorno paralelo podrían aplicarse a soluciones informáticas más generalizadas, pero por ahora, IBM no ha anunciado ningún plan específico. También ha habido rumores de que el innovador procesador TRIPS (Tera-op, Reliable, Intelligently Adaptive Processing System) puede encontrar un lugar en el esfuerzo HPCS de Big Blue, pero la compañía no ha anunciado nada públicamente.

Ciertamente no soy el único que ve el potencial de HPCS para cambiar el juego. The High-End Crusader comenta:

“En la selección descendente de HPCS, sobrevivieron las proposiciones más fuertes y las segundas más fuertes, mientras que la más débil fue eliminada. DARPA es (aparentemente) lento pero no estúpido. Una gran virtud del programa HPCS es romper el siguiente círculo vicioso: reducir nuestras aplicaciones de HPC para que coincidan con nuestras arquitecturas HPC ya reducidas e impulsadas por el mercado, lo que hace que el mercado sea más tosco y repetitivo.

“Pero el trabajo no está hecho. Tomemos a Cray por ejemplo.

“Cray Inc. ha logrado grandes avances en su diseño Cascade aprovechando la heterogeneidad del paralelismo para un rendimiento sostenido de amplia aplicación. Es digno de elogio por su objetivo declarado de separar las abstracciones de programación (por encima del compilador) de las abstracciones de ejecución (por debajo del compilador), haciendo así la programación de máquinas paralelas más accesible para el programador medio. (Aquí está la heterogeneidad del paralelismo que está oculta: un solo hilo, vector, multiproceso, lo que sea). No se desperdicia ni un centavo de la inversión en software de Cray Inc.

“Pero necesitamos una visión más completa de la heterogeneidad. Necesitamos heterogeneidad en toda su diversidad. Hay tres formas de heterogeneidad: heterogeneidad de paralelismo (como se entendió anteriormente), heterogeneidad de localidad y heterogeneidad de programas y estilo de programación, que – sorprendentemente – va más allá de los otros dos.

“Necesitamos un visionario, con experiencia tanto en arquitectura como en lenguajes de programación, que pueda encontrar una integración exitosa de estas tres formas principales de heterogeneidad (suena como un artículo completo de HEC).

“Solo el procesamiento heterogéneo completamente integrado puede restaurar la vitalidad de la computadora, en cualquier escala, desde el escritorio hasta el petaflop, y todavía no lo hemos logrado. Además, también necesitamos desesperadamente dominar al dragón de muchos núcleos, que tiene el potencial de comernos a todos «.

Para los verdaderos defensores de la heterogeneidad, este es un buen momento para dedicarse a la informática de alto rendimiento. Junto con HPCS y el creciente interés en el procesador Cell BE, FPGA, GPU y otras tecnologías de aceleración, el mundo de la informática de alto rendimiento parece estar en transformación. Con el impulso hacia modelos de computación alternativos, es posible que veamos un período en el que la tecnología más avanzada comenzará a reemplazar los sistemas tradicionales de HPC que han dominado durante la última década.

¿El fin de la era conservadora? ¡Podría ocurrir!

—–

Como siempre, los comentarios de Calendae son bienvenidos y alentados. Escríbeme, Michael Feldman, un [email protected].

Deberías compartir en en tu Twitter y Facebook para que tus amigos lo disfruten

??? ? ? ???

Comparte