Acelere la nube con GPU - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Acelere la nube con GPU

Hola otra vez. En el teclado Simón Sánchez y hoy te voy a contar sobre Acelere la nube con GPU

Si tuviera que crear una lista de tecnologías transformadoras para ponerme al día con HPC durante la última década, los servicios en la nube y las GPU genéricas ocuparían un lugar bastante alto. Si bien la idea de usar máquinas virtuales para ejecutar cargas de trabajo de computación técnica era un anatema para algunos, al menos inicialmente, los beneficios eran difíciles de discutir. La facilidad de uso, la escalabilidad, la resistencia y los precios de pago por uso eran todos los principales beneficios, pero aún existía el problema de los gastos generales: la penalización por virtualización. En términos de rendimiento, el metal desnudo tenía la ventaja.

A medida que ha crecido la popularidad de la nube, también ha crecido la denominada informática GPGPU: el uso de unidades de procesamiento de gráficos genéricos para acelerar el trabajo informático. Quizás las dos tecnologías, GPU y virtualización, podrían combinarse para crear un entorno de nube que satisfaga las necesidades de las cargas de trabajo de HPC. Un grupo de científicos informáticos se propuso explorar este mismo problema.

«Proponemos cerrar la brecha entre la supercomputación y la nube proporcionando máquinas virtuales habilitadas para GPU», escribe el equipo en un reciente papel. «Específicamente, el hipervisor Xen se utiliza para aprovechar las herramientas especializadas de virtualización de E / S asistidas por hardware para ofrecer GPU NVIDIA avanzadas centradas en HPC directamente en las máquinas virtuales invitadas».

Esta no es la primera vez que se prueban máquinas virtuales habilitadas para GPU. Amazon EC2 y un par de otros proveedores de nube tienen una oferta de GPU, sin embargo, el enfoque no está exento de desafíos y hay diferentes ideas sobre cómo implementar mejor un entorno de nube basado en GPU, que aborda el documento.

El equipo de científicos de la Universidad de Indiana y el Instituto de Ciencias de la Información (ISI), una unidad de la Escuela de Ingeniería Viterbi de la Universidad del Sur de California, comparó el rendimiento de dos GPU Tesla en una variedad de aplicaciones que utilizan modos nativos y virtualizados. Para realizar los experimentos, los investigadores utilizaron dos máquinas diferentes, una equipada con GPU Fermi y la otra con chips Kepler más nuevos. Después de ejecutar varios puntos de referencia y evaluar los resultados, el

Al comparar entornos virtualizados con entornos bare metal, el equipo estudió tres puntos de datos: FLOPS, ancho de banda del dispositivo y rendimiento del bus PCI. Entre los resultados más notables en la porción de prueba FLOPS, el equipo descubrió que incluso para FLOPS de doble precisión, las GPU de Kepler casi duplicaban el rendimiento. Pero más aplicable a la investigación en curso, cuando se trata de FLOPS sin procesar disponibles para cada GPU tanto en modo nativo como virtualizado, la sobrecarga de virtualización estaba entre 0 y 2.9 por ciento.

Cuando se probaron otras aplicaciones, la degradación del rendimiento osciló entre 0% en algunos casos y más del 30%. Los puntos de referencia de FFT resultaron en la mayor sobrecarga, mientras que los puntos de referencia de multiplicación de matrices tuvieron una sobrecarga promedio del 2,9% para las configuraciones virtualizadas.

En términos de velocidad del dispositivo, medida tanto en ancho de banda sin procesar como en evaluaciones comparativas de terceros, la virtualización tuvo «poco o ningún impacto en el rendimiento».

El tamaño final bajo prueba, el bus PCI Express, tenía el mayor potencial de sobrecarga, según la investigación. «Esto se debe a que los conjuntos de instrucciones del chip VT-d e IOMMU interactúan directamente con el bus PCI para proporcionar mecanismos operativos y relacionados con la seguridad para cada dispositivo de PC, asegurando así un funcionamiento adecuado en un entorno de múltiples huéspedes».

Al analizar estos resultados, el

Si bien lo mismo ocurre con las máquinas virtuales equipadas con GPU, el equipo de investigación dice que la sobrecarga es mínima. Añaden que su método directo de paso a través de PCI de las GPU NVIDIA que utilizan el hipervisor Xeon se puede implementar de forma limpia en muchos entornos de infraestructura como servicio. El siguiente paso para el equipo será la integración de este modelo con el marco IaaS OpenStack nova con el objetivo de permitir a los investigadores crear sus propias nubes privadas.

Puedes compartir en tus redes sociales para que tus colegas lo flipen

??? ? ? ???

Comparte