NVIDIA mueve los clústeres de GPU a la segunda marcha - Calendae | Informática, Electrónica, CMS, Ciberseguridad

NVIDIA mueve los clústeres de GPU a la segunda marcha

Hola y mil gracias por leerme. En el teclado Simón Sánchez y hoy vamos a hablar sobre NVIDIA mueve los clústeres de GPU a la segunda marcha

Los clústeres acelerados por GPU están pasando rápidamente de la fase de patear el volante a los sistemas de producción, y NVIDIA se ha posicionado como el principal impulsor de este segmento emergente de la informática de alto rendimiento.

El hardware Tesla S1070 de la empresa, junto con el entorno informático CUDA, están empezando a ofrecer resultados reales para cargas de trabajo HPC comerciales. Por ejemplo, Hess Corporation tiene un clúster de 128 GPU que realiza procesamiento sísmico para la empresa. Los 32 S1070 (4 GPU por tarjeta) están emparejados con servidores de CPU de cuatro núcleos y dos sockets y se ejecutan al nivel de aproximadamente 2000 servidores de CPU de dos sockets para algunas de sus cargas de trabajo. Para Hess, esto significa que puede obtener la misma potencia informática por 1/20 del precio y 1/27 del consumo de energía.

Hess no está solo. La petrolera brasileña Petrobas construyó un clúster Tesla de 72 GPU para sus códigos sísmicos. Aunque la compañía no ha publicado datos de rendimiento específicos, según las pruebas preliminares, Petrobas espera ver una mejora de 5 a 20 veces sobre una plataforma de clúster basada en CPU. Chevron y Total SA también están experimentando con la aceleración de la GPU, y aunque no han revelado qué tipos de sistemas se utilizan, es casi seguro que los productos NVIDIA estén en la mezcla.

BNP Paribas, una empresa bancaria francesa, utiliza un Tesla S1070 para calcular el precio de las acciones de los derivados rastreados por la empresa. Según Stéphane Tyc, jefe de la división de Banca Corporativa y de Inversión de la compañía en el grupo de Investigación Cuantitativa de GECD, pudieron lograr el mismo rendimiento que 500 núcleos de CPU con solo la mitad de la tarjeta Tesla (dos GPU). Aún mejor, la plataforma proporcionó un aumento de 100 veces en los cálculos por vatio en comparación con un sistema solo de CPU. «Nos sorprendió mucho obtener cifras de esta magnitud», dijo Tyc. En marzo, BNP Paribas no había implementado el sistema para operaciones en vivo, pero ya existen planes para traer más software.

Hasta ahora, todos estos clústeres acelerados por GPU tenían que ser personalizados. En un esfuerzo por lograr una experiencia más «lista para usar» para los usuarios de clústeres de GPU, NVIDIA ha lanzado su estrategia «Clúster preconfigurado de GPU Tesla». Esencialmente, es un conjunto de pautas para los fabricantes de equipos originales y los creadores de sistemas para los clústeres acelerados de NVIDIA, la idea es hacer que los clústeres de GPU sean tan fáciles de ordenar e instalar como sus contrapartes de solo CPU. Es básicamente una estrategia paralela al programa de estación de trabajo de supercomputadora personal de NVIDIA, que la compañía lanzó en noviembre de 2008.

Las pautas consisten en una serie de especificaciones de hardware y software que definen una configuración básica del clúster de GPU. En pocas palabras, cada clúster tiene un nodo raíz de CPU que ejecuta software de administración de clústeres, un conmutador InfiniBand para la comunicación de nodo a nodo y cuatro o más nodos de cómputo acelerados por GPU. Cada nodo de cálculo tiene un servidor de CPU conectado a un Tesla S1070 a través de PCI Express. En el lado del software, un sistema incluye software de agrupación en clústeres, MPI y herramientas de desarrollo CUDA de NVIDIA. La mayor parte de esto es solo una tarifa estándar, pero el software del clúster suele ser un rollo de Rocks para CUDA o algo equivalente.

NVIDIA en sí no está construyendo ningún sistema. Al igual que la empresa hizo con la supercomputadora personal, reclutó socios y distribuidores OEM para ofrecer clústeres acelerados por GPU. Los proveedores de sistemas pueden agregar valor vendiendo sus propias opciones de hardware, servicios, herramientas y software de agrupación. NVIDIA ha fichado actualmente a más de una docena de jugadores, incluidos muchos de los sospechosos habituales de HPC: Cray, Appro, Microway, Penguin Computing, Colfax International y James River Technical. NVIDIA también ha reunido algunas estaciones de trabajo y distribuidores de servidores regionales para lograr un alcance más global. En esta categoría tenemos CADNetwork (Alemania), E4 (Italia), T-Platforms (Rusia), Netweb Technologies (India), Viglen (Reino Unido). los lista completa de socios está en el sitio web de NVIDIA.

Un sistema esencial, un nodo principal y cuatro servidores acelerados por GPU, debería funcionar por alrededor de $ 50,000. Esta configuración proporcionará aproximadamente 16 teraflops (precisión simple). Pero los sistemas más grandes pueden escalar hasta cientos de teraflops y manejar $ 1 millón. En este rango de precios de $ 50 mil a $ 1 millón, los sistemas están dirigidos a grupos de investigación de varios tamaños. Una máquina de 16 GPU de gama baja, por ejemplo, podría servir a un profesor y su equipo de investigación de posgrado, mientras que un sistema de 100 GPU probablemente sería compartido por múltiples grupos de investigación dispersos en una organización.

Esto refleja cómo se utilizan hoy en día los clústeres de CPU multiteraflop, pero en el caso de las GPU, el precio es un orden de magnitud más bajo. El objetivo de NVIDIA es hacer que esta capacidad esté disponible para los cientos de miles de investigadores que potencialmente podrían utilizar este nivel de procesamiento, pero que no pueden pagar un sistema basado en CPU o no tienen la energía o el espacio para albergar una máquina de este tipo. .

El software seguirá siendo el factor limitante, ya que muchos códigos de procesamiento técnico importantes simplemente se transfieren a la GPU. Paquetes habilitados para CUDA como NAMD (Dinámica molecular de NAnoscale) e GROMACS (GROningen MAchine for Chemical Simulations) están en desarrollo y pronto encontrarán su camino hacia los sistemas comerciales. En un futuro cercano, se espera que OpenCL ofrezca otra vía para portar código de procesamiento de GPU de nivel superior. Todo esto significa que los constructores de sistemas podrán crear cada vez más clústeres de GPU llave en mano para segmentos de aplicaciones específicos.

Si los clústeres de GPU despegan, sería una noticia particularmente bienvenida para NVIDIA. Como muchos fabricantes de chips, la empresa se enfrenta a una recesión económica. Sus ingresos cayeron un 16% el año pasado y registró su primera pérdida neta en una década. La buena noticia es que en el ámbito de la computación GPU, NVIDIA es el líder indiscutible del mercado. Y aunque las ofertas de HPC de la compañía no son un gran negocio, si las GPU de Tesla se convierten en el acelerador elegido por millones de investigadores, eso podría cambiar.

Puedes compartir en en tu Twitter y Facebook para que tus colegas opinen

??? ? ? ???

Comparte