La supercomputación GPU llega a la nube de Amazon - Calendae | Informática, Electrónica, CMS, Ciberseguridad

La supercomputación GPU llega a la nube de Amazon

Hola y mil gracias por leerme. Te habla Simón Sánchez y esta vez hablaremos sobre La supercomputación GPU llega a la nube de Amazon

Esta semana marca un hito significativo en la fiesta de presentación de GPU en curso en el ámbito de la informática de alto rendimiento, tanto en la nube como más allá.

Si bien durante mucho tiempo ha habido conversaciones constantes sobre el poder de la computación GPU para algunas aplicaciones HPC, la palabra «GPU» en labios de miles más esta semana después del anuncio oficial de la supercomputadora GPU número uno de China, la Tianhe -1a, que se ejecuta en 14.336 procesadores Xeon X5670 y 7.168 GPGPU NVIDIA Tesla M2050.

Otro anuncio importante, esta vez del gigante de la infraestructura en la nube Amazon Web Services, trae la poderosa GPU de nuevo al primer plano en las conversaciones con la presentación de las instancias de Cluster GPU, un derivado de las instancias de cómputo de clúster aún frescas.

Aquellos cuyo trabajo se basa en visualización, renderizado, petróleo y gas, modelado financiero y climático, y una amplia gama de otros campos, reciben otra alternativa a invertir en sus propios clústeres de GPU con esta adición a la lista corta de Ofertas de Amazon orientadas a HPC. Si bien hay otros proveedores agrupados de GPU en alquiler, incluidos Penguin Computing, Peer1 Hosting y algunos otros que tienen algunos de los marcos de soporte (y, a menudo, comparaciones de evaluación comparativa de rendimiento) en su lugar, el concepto de supercomputación de GPU en una nube El recurso de acceso público es una gran noticia en la «cloudosfera» de HPC.

Bajo el capó de la GPU del clúster

Además de agregar un par de GPU NVIDIA Tesla M2050 Fermi, las instancias de GPU de clúster no se ven muy diferentes de las instancias de cómputo de clúster, que se anunciaron a fines del verano. Este tipo de instancia alberga un par de procesadores Intel Nehalem X5570 de cuatro núcleos y Ethernet de 10 Gbps, así como 22 GB de RAM y 16900 GB para almacenamiento y está diseñado para (y se ha probado ampliamente con) una gama de computadoras de alto rendimiento. rendimiento de la carga de trabajo.

Como declaró hoy el equipo de instancias de clúster de GPU en su blog, «Cada Tesla M2050 contiene 448 núcleos y 3 GB de RAM ECC, diseñada para ofrecer hasta 515 gigaflops de rendimiento de doble precisión cuando se lleva al límite. Como cada instancia lo contiene. con un par de estos procesadores, puede obtener algo más de un billón de FLOPS por instancia de GPU agrupada «.

Cuando conecta todo esto junto con Ethernet de 10 Gbps, existe la oportunidad de capacidades de renderizado y HPC en paralelo de datos a las que definitivamente vale la pena prestar atención, ya que cuestan $ 2.10 por hora estándar. Al igual que con las instancias informáticas de clúster, a los clientes se les asigna un desembolso básico de recursos, pero deben solicitar más manualmente al equipo de AWS.

Este nuevo tipo de instancia tiene cierta complejidad adicional, al menos en comparación con su predecesor en el lado de HPC, las instancias de computación en clúster donde la transferencia de código no era un problema tan complicado. Este tipo de instancia está dirigida a quienes comprenden (o tienen un grupo confiable para ayudar) aprovechando esas paradas.

El mayor obstáculo para una adopción más amplia de la computación GPU, ya sea en la nube o no, simplemente radica en la portabilidad de aplicaciones. Dado que se requiere un código especializado, es decir, comprender la arquitectura CUDA, comenzar temprano con este tipo de instancias será un ejercicio solo para aquellos que probablemente estén familiarizados con EC2 y también estén familiarizados con la codificación compleja involucrada con la computación GPU. Sin embargo, a medida que aumente el interés en la informática GPU en los próximos años, es probable que algunos de estos desafíos relacionados con el código se resuelvan para garantizar un acceso más amplio.

Según NVIDIA, «ya se han trasladado cientos de aplicaciones a la arquitectura NVIDIA CUDA masivamente paralela en la que se basan todas sus GPU actuales … Algunas de las aplicaciones listas para ejecutarse en instancias de GPU de Amazon Cluster incluyen RealityServer y MATLAB de mental images por Mathworks.

NVIDIA ha dedicado una cantidad significativa de tiempo para llegar a los clientes potenciales que pueden estar usando GPGPU, por lo que esta asociación con Amazon es muy beneficiosa, ya que abre el acceso a su arquitectura a través de una mayor comodidad. No es difícil ver cómo esto beneficia tanto a AWS como a NVIDIA, respectivamente.

Si bien la cantidad de aplicaciones portadas crecerá en los próximos años, especialmente a medida que la computación GPU se extenderá para atender a una cantidad de nuevos usuarios a los que se les ha negado el acceso financieramente, es difícil decir cuánto impulso esto le dará a Amazon. Su oferta de CCI ha sido bien recibida en general, a pesar de algunas de sus limitaciones para la seguridad y las aplicaciones sensibles a la latencia, y uno puede imaginar que esto también se popularizará entre una pequeña minoría y crecerá en número a medida que el problema de la portabilidad. se vuelve menos problemático.

La imagen más grande de la GPU en la nube

No hace mucho tiempo, los desarrolladores de aplicaciones científicas avanzadas encontraron una manera de usar GPU para manejar una variedad de problemas de propósito general, lo que llevó al creciente movimiento de Propósito general en unidades de procesamiento de gráficos (GPGPU). Este es un espacio en rápida evolución a medida que más y más desarrolladores buscan extender las aplicaciones más allá de la potencia de procesamiento de la CPU y claramente alguien en Amazon ha visto un valor agregado al otorgar a los clientes acceso a las GPU en la nube. Esta semana durante la SC10 esperamos hablar con algunos usuarios potenciales sobre cómo usarían (o no) un recurso de este tipo y qué podrían percibir como los mayores obstáculos o beneficios.

Ha habido grandes esperanzas de llamar la atención de Amazon por las exigentes capacidades de procesamiento de la GPU en los últimos años, pero hasta el anuncio oficial, esto todavía parecía en el horizonte. Algunos predijeron que Amazon esperaría para realizar una inversión en GPU hasta que monitoreara y aprobara suficientemente el éxito de la instancia de computación en clúster y, además, hasta que viera innovaciones en la facilidad de uso de las GPU desde punto de vista del código.

Además de asegurarnos en una entrevista que Cluster Compute Instance fue muy bien recibido, Peter De Santis, Gerente General de EC2 en Amazon, señaló en el comunicado de la compañía que con esta nueva oferta, «estamos aumentando las opciones disponibles para nuestros Los clientes de HPC les permiten elegir entre utilizar clústeres de alto rendimiento con CPU de alto rendimiento o aprovechar las capacidades de procesamiento únicas de los procesadores GPU para aplicaciones que pueden beneficiarse de la enorme potencia de procesamiento paralelo que proporcionan «.

Mental Images, una subsidiaria de NVIDIA que proporciona renderizado y software para componentes de servicios web 3D dirigidos a CAE, visualización y entretenimiento, es un candidato perfecto para beneficiarse de un tipo de instancia como el nuevo aprovisionamiento de GPU en clúster. Como señaló Rolf Herken, director ejecutivo y director de tecnología de imágenes mentales, «la disponibilidad de las GPU NVIDIA Tesla en la nube de AWS en forma de instancias de GPU de Amazon Cluster que ejecutan la plataforma RealityServer con el renderizador iray proporcionará arquitectos, diseñadores de productos, ingenieros y otros con herramientas extraordinariamente poderosas a las que pueden acceder de forma remota en dispositivos móviles, PC y otros dispositivos «. Según las pruebas internas que realizó con su equipo, se demostró que pueden lograr «más del 90% de eficiencia de escala en clústeres de hasta 128 GPU cada uno».

La oferta de Amazon de potencia de GPU para admitir una variedad de aplicaciones informáticas de alto rendimiento, particularmente en el sector del petróleo y el gas, los servicios financieros y el renderizado es un poco sorprendente, ya que muchos han predicho que no verían una oferta de este tipo hasta que hubo otro atractivo creciente para AWS por parte de los usuarios experimentados en informática de GPU que también estuvieran familiarizados con EC2. Si bien fue más sorprendente que sucediera tan pronto, qué mejor momento para difundir un anuncio que durante la semana más importante para los profesionales de HPC de todo el mundo …

A principios de este mes, anunciamos a los ganadores de nuestros premios Editors ‘Choice Awards 2010, de los cuales Amazon se ha distinguido como un innovador de plataforma en la nube. Esta elección se debió en parte al anuncio del tipo de instancia de computación en clúster orientada a HPC (CCI). Nuestro argumento a favor de la posición de Amazon como un innovador en constante evolución en la computación en la nube ahora gana más credibilidad a medida que se abren nuevas puertas para aquellos que podrían hacer un gran uso de la computación GPU pero no pudieron ingresar debido a la alta inversión. iniciales.

Las instancias de computación en clúster se están utilizando, según Tera Randall de Amazon, para una serie de proyectos, incluidos algunos relacionados con el aprendizaje automático para la investigación de enfermedades infecciosas, la secuenciación de datos genéticos de próxima generación, el comercio de energía y modelado financiero y otros proyectos relacionados y actividades de ingeniería. Randall señaló que “una gran cantidad de usuarios estaban ejecutando una variedad de aplicaciones CFD.

Con esta adopción de instancias de computación en clúster para aplicaciones que podrían ser una buena solución para agregar potencia de procesamiento a la computación GPU, uno tiene que preguntarse si estos clientes existentes estarán listos para la tarea de reorganizar su código para cosechar los beneficios. GPU o conformarse con CCI estándar, que es de $ 1.60 por hora de instancia versus $ 2.10 por hora de instancia por GPU de clúster.

Puedes compartir en tus redes sociales para que tus amigos opinen

??? ? ? ???

Comparte