Appro gana adquisiciones de HPC multimillonarias para NNSA - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Appro gana adquisiciones de HPC multimillonarias para NNSA

Hola otra vez. En el teclado Simón Sánchez y en esta ocasión hablaremos sobre Appro gana adquisiciones de HPC multimillonarias para NNSA

Por segunda vez en cinco años, Appro ha sido seleccionada para proporcionar a la Administración Nacional de Seguridad Nuclear (NNSA) grupos de capacidad de HPC para los programas de gestión de inventario y simulación avanzada (ASC) de la agencia. La adjudicación Tri-Lab Linux Capacity Cluster 2 (TLCC2) es un contrato de dos años que permitirá al fabricante del clúster entregar sistemas HPC en tres laboratorios nacionales del Departamento de Energía. El acuerdo tiene un valor de decenas de millones de dólares para Appro y representa el contrato más grande en los 20 años de historia de la compañía.

En los últimos años, Appro ha tenido una racha con los laboratorios de la NNSA. los Pelotón El contrato con Lawrence Livermore Lab en 2006 fue la primera gran victoria de la compañía en el campo de la NNSA. Fue el día en que de 50 a 100 teraflops de capacidad se consideraron HPC de tamaño monstruoso. Peloton fue el preludio del premio Tri-Lab Linux Capacity Cluster (TLCC) inicial para Appro en 2007, que fue la primera vez que la NNSA decidió utilizar un solo proveedor de sistemas, pila de software y clúster de arquitectura para todos y tres laboratorios de armas de la NNSA: Lawrence Livermore (LLNL), Los Alamos (LANL) y Sandia (SNL) National Laboratories. Ese contrato exigía que Appro proporcionara 426 teraflops de capacidad repartidos en nueve clústeres y enviara 26,1 millones de dólares al flujo de ingresos de la empresa durante un período de dos años.

El seguimiento del contrato de 2007, la adjudicación TLCC2 anunciada hoy, proporcionará algo al norte de 3 petaflops de capacidad agregada a los tres laboratorios del DOE. Pero si el contrato ejerce todas sus opciones, la cantidad se duplicará a alrededor de 6 petaflops, según el vicepresidente de Appro, John Lee, que dirige el grupo de Soluciones de Tecnología Avanzada y Operaciones de la compañía. El gasto total de trabajo de TLCC2 dependerá del financiamiento de la ASC en el año fiscal 2012, pero terminará excediendo con creces los $ 26.1 millones recaudados para el contrato de 2007, dice Lee. * «Este es el acuerdo individual más grande jamás otorgado por Appro», dijo a Calendae.

La misión de los nuevos clústeres es la misma que la del contrato original de TLCC: proporcionar una infraestructura de HPC de capacidad para simulaciones por computadora para respaldar la disuasión nuclear envejecida del país. Los sistemas de capacidad están destinados a ser los caballos de batalla que soportan el software más raro que se ejecuta en supercomputadoras con capacidad de laboratorio. Aquí nos referimos a máquinas como Sequoia, el sistema Blue Gene / Q de 20 petaflop que se implementará en Lawrence Livermore en 2012. Sequoia y tales máquinas están diseñadas para ejecutar códigos a gran escala para modelos de armas nucleares y simulaciones de cuantificación de la incertidumbre, ambos requieren una tecnología de supercomputación altamente ajustada. Mientras tanto, se emplearán agrupaciones de capacidad para el desarrollo de algoritmos y para proporcionar un grupo de cálculo genérico para códigos científicos básicos.

La capacidad de HPC para esta adquisición se especifica en unidades escalables, un concepto ideado por laboratorios en 2007 para definir una unidad de infraestructura informática que se puede agregar de forma modular. Una unidad escalable proporciona 50 teraflops máximos de hardware (una unidad escalable en el contrato original de Appro era solo de 20 teraflops), donde un clúster puede tener entre una y 18 unidades. La idea detrás de este enfoque es simplificar la adquisición, implementación y gestión de sistemas en los tres laboratorios.

El contrato original de Peloton y Tri-Lab exigía que Appro suministrara servidores basados ​​en AMD Opteron unidos con Mellanox DDR InfiniBand. Esta vez, sin embargo, los laboratorios obtendrán servidores basados ​​en Intel Xeon y QLogic QDR. Específicamente, todos los clústeres se basarán en una nueva versión del sistema GreenBlade de Appro utilizando las próximas CPU Sandy Bridge-EP Xeon de ocho núcleos, con dos procesadores y 32 GB de memoria por nodo.

La compañía también está instalando estos mismos servidores GreenBlade en un futuro próximo. Supercomputadora Gordon en el San Diego Supercomputer Center (SDSC), dice Lee de Appro. Según él, Gordon y los nuevos clústeres Tri-Lab serán los primeros dos servidores HPC equipados con Sandy Bridge en el mundo.

Por cierto, Appro también ofrecerá productos de clúster con las próximas CPU «Interlagos» de AMD (serie Opteron 6200). Estos sistemas serán especialmente adecuados para aplicaciones que pueden extenderse fácilmente entre muchos núcleos y memoria en forma SMP: hasta 16 por núcleo / procesador y, en teoría al menos, hasta cuatro procesadores por nodo, junto con la memoria asociada.

Pero para las aplicaciones HPC sensibles al rendimiento de la memoria, como en las cargas de trabajo Tri-Lab, los clientes tenderán a favorecer los nuevos Xeons, dice Lee. Tanto Interlagos como Sandy Bridge EP ofrecen cuatro canales de memoria; sin embargo, en el caso de Opteron, un procesador Interlagos de 16 núcleos está empaquetado como dos matrices de 8 núcleos enchufados en el mismo zócalo. Entonces, cada chip tiene acceso directo a solo dos canales. Si los núcleos de un chip quieren acceder a la memoria adjunta a su chip compañero, tiene que pasar por el bus HyperTransport. Con la matriz monolítica Sandy Bridge, los cuatro canales de memoria son directamente accesibles a todos los núcleos del zócalo.

Los nuevos clústeres Tri-Lab estarán equipados con hardware QLogic QDR InfiniBand, dejando las piezas Mellanox en los sistemas TLCC y Peloton. En este caso, los laboratorios están dando prioridad a los equipos QLogic basándose en una escalabilidad impresionante y resultados de rendimiento en algunos de sus sistemas equipados con QLogic existentes, en particular, el clúster Sierra de 23.000 núcleos en Lawrence Livermore.

Si el tiempo del contrato hubiera sido un poco más tarde, los laboratorios podrían haber tenido la tentación de elegir Mellanox y sus nuevas soluciones InfiniBand FDR (Fourteen Data Rate), pero los adaptadores, conmutadores y software relacionado llegarán a las calles en tercer trimestre de este año. Como se espera que los sistemas TLCC2 iniciales se instalen en los tres laboratorios antes de finales de septiembre de 2011, esto habría hecho de FDR InfiniBand una propuesta incierta. Sin embargo, los nuevos GreenBlades admitirán PCIe 3.0, por lo que los sistemas podrían actualizarse a FDR y posiblemente adaptadores EDR en el camino.

La disponibilidad de Sandy Bridge-EP también agrega cierto riesgo a la planificación de la implementación. Es de suponer que se espera que los nuevos Xeons salgan de las fábricas en el tercer trimestre de este año. Pero si no están en plena producción, Appro y los laboratorios esperan poder obtener suficiente CPU para comenzar las entregas. Se planea implementar varios sistemas en cada sitio, con la máquina más grande, un clúster de 900 teraflop, inicialmente dirigido a Lawrence Livermore

También habrá algunas GPU en la mezcla. Los tres laboratorios expresaron interés en aceleradores para algunos de estos grupos. Sin embargo, inicialmente solo Los Alamos instalará dicho sistema, en este caso, un clúster de 324 nodos, equipado con 648 de las últimas GPU NVIDIA Tesla M2090. Este es solo el comienzo; Los Alamos también espera comprar un clúster de GPU alrededor del doble de ese tamaño. Los tres laboratorios también están interesados ​​en los futuros aceleradores «Knights Corner» de Intel, pero no están en los resultados finales de ningún sistema planificado en este momento, dice Lee.

* La NNSA ha posteriormente Anunciado que la adjudicación del contrato inicial será de $ 39 millones, con un máximo de $ 89 millones posible si se ejercen todas las opciones.

No te olvides compartir en en tu Twitter y Facebook para que tus colegas opinen

??? ? ? ???

Comparte