Resumen de la investigación: virtualización y baja latencia para nubes globales - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Resumen de la investigación: virtualización y baja latencia para nubes globales

Hola otra vez. Yo soy Simón Sánchez y hoy te voy a contar sobre Resumen de la investigación: virtualización y baja latencia para nubes globales

En el surtido seleccionado de esta semana, los investigadores consideran la virtualización de HPC como servicio, la baja latencia en aceleradores y sistemas de nube globales y la detección del entorno de nube de HPC en su conjunto.

Virtualización asistida por hardware para la implementación de HPC-as-a-Service

La virtualización ha sido el motor principal detrás del auge de la computación en la nube, soportado investigadores del Instituto A * STAR de Computación de Alto Rendimiento en Singapur. A pesar de los enormes beneficios de la computación en la nube para aplicaciones (por ejemplo, empresas, web, juegos / multimedia, ciencias biológicas y análisis de datos), su éxito en el dominio de la computación de alto rendimiento (HPC) ha sido limitado. La razón citada con frecuencia es la latencia causada por la virtualización.

Mientras tanto, según los investigadores, la creciente popularidad de la virtualización ha obligado a los proveedores de CPU a incorporar tecnología de virtualización (VT) en chips. Se cree que este VT de hardware acelera el cambio de contexto, acelera la traducción de direcciones de memoria y permite el acceso directo a E / S; que son básicamente fuentes de sobrecarga de virtualización.

Su artículo informa sobre la evaluación del rendimiento informático y de comunicación de diferentes entornos virtualizados, como Xen y KVM, aprovechando el hardware VT. Se implementaron y probaron varias estructuras de red, a saber, Gigabit Ethernet e InfiniBand, en entornos virtualizados y sus resultados se compararon con los de entornos nativos.

También se utilizó una aplicación HPC real (una simulación hidrodinámica basada en MPI) para evaluar el rendimiento. Los resultados indican que la virtualización asistida por hardware puede realizar HPC-as-a-Service.

Comunicaciones de baja latencia en sistemas globales de computación en la nube

Un artículo de la Universidad McMaster de Hamilton explora tecnologías para lograr comunicaciones energéticamente eficientes y de baja latencia en sistemas de computación en la nube a escala global.

Un sistema de computación en la nube a escala global que conecta 100 centros de datos remotos puede potencialmente interconectar 5 millones de servidores, significativamente más grandes, segundo al papel, en comparación con el tamaño de las máquinas tradicionales de Computación de alto rendimiento (HPC). Las máquinas HPC tradicionales utilizan procesadores y redes estrechamente acoplados que rara vez eliminan paquetes.

Por el contrario, la IP de Internet actual es una red Best-Effort relativamente mal acoplada con garantías de baja latencia y eficiencia energética, con tasas de pérdida de paquetes relativamente altas. Este documento explora el uso de una red Future-Internet propuesta recientemente, que utiliza un algoritmo de programación de enrutador sensible a QoS combinado con la nueva tecnología de señalización de reserva de recursos IETF, para lograr una latencia mejorada y eficiencia energética en los sistemas. de la computación en nube.

Se utiliza un algoritmo de enrutamiento de flujo máximo de energía mínima para enrutar «troncales» de alta capacidad entre centros de datos distribuidos en los Estados Unidos continentales, utilizando una topología de red IP de EE. UU. Las comunicaciones entre máquinas virtuales en centros de datos remotos se agregan y multiplexan en troncales, para mejorar significativamente la eficiencia energética.

De acuerdo con la teoría y las simulaciones, los retrasos grandes y variables en las colas de las conexiones a Internet tradicionales de mejor esfuerzo se pueden eliminar y la latencia de la nube se puede reducir a valores casi mínimos: latencia de fibra. Las latencias máximas de fibra en la red Sprint USA son aprox. Se pueden usar 20 milisegundos, comparables a las latencias del disco duro, y el subproceso múltiple en máquinas virtuales para ocultar estas latencias.

Además, si se activa la fibra oscura existente en la red continental, el ancho de banda de bisección disponible en un sistema de computación en la nube a escala global puede competir con el que se puede obtener en las máquinas HPC comerciales.

Integración de aceleradores usando CometCloud

Los aceleradores de aplicaciones pueden incluir GPU, procesadores celulares, FPGA y otros dispositivos personalizados basados ​​en circuitos integrados específicos de aplicaciones (ASIC). Segundo Investigación En la Universidad de Cardiff, surgen una serie de desafíos cuando estos dispositivos deben integrarse como parte de un único entorno informático, en relación tanto con la diversidad de dispositivos como con los modelos de programación compatibles.

Uno de los principales desafíos que consideran es seleccionar el dispositivo más adecuado para acelerar una aplicación en particular. Su enfoque hace uso de un sistema de emparejamiento basado en intermediarios, que intenta comparar la capacidad de un dispositivo con uno o más núcleos de aplicación, utilizando el mecanismo de coordinación basado en el espacio de la tupla CometCloud para facilitar el proceso de emparejamiento.

Describieron la arquitectura de nuestro sistema y cómo utiliza la predicción de rendimiento para seleccionar dispositivos para kernels de aplicaciones particulares. Demostraron que dentro de un sistema HPC altamente dinámico, su enfoque puede aumentar el rendimiento de la aplicación mediante el uso de técnicas de transferencia de código al dispositivo más adecuado encontrado; (a) permitir la adición dinámica de nuevos dispositivos al sistema y (b) permitir que las aplicaciones se replieguen y utilicen el mejor dispositivo alternativo disponible si el dispositivo preferido no se puede encontrar o no está disponible.

Un estudio de informática de alto rendimiento en la nube

La popularidad de la plataforma en la nube EC2 de Amazon ha aumentado en los últimos años, según una investigación de la Universidad de Arizona y el Laboratorio Nacional Lawrence Livermore. Sin embargo, los investigadores discutir, muchos usuarios de Computación de alto rendimiento (HPC) consideran que los clústeres dedicados de alto rendimiento, que normalmente se encuentran en grandes centros de procesamiento como los de los laboratorios nacionales, son muy superiores a EC2 debido a la importante sobrecarga de comunicación de este último. .

Su opinión era que esto es bastante limitado y que las métricas adecuadas para comparar los clústeres de alto rendimiento con EC2 son el tiempo de entrega y el costo. En su artículo, compararon el clúster EC2 de primera línea con los clústeres de HPC del Laboratorio Nacional Lawrence Livermore (LLNL) según el tiempo de entrega y el costo total de ejecución.

Al medir el tiempo de respuesta, incluyeron el tiempo de espera de cola esperado en los clústeres de HPC. Sus resultados muestran que aunque, como se esperaba, los clústeres de HPC estándar son superiores en rendimiento bruto, los clústeres de EC2 pueden producir mejores tiempos de entrega. Para estimar los costos, desarrollaron un modelo de precios, el precio por hora de nodo de EC2, para establecer los precios por hora de nodo para los clústeres LLNL (actualmente gratuitos). Observaron que la rentabilidad de ejecutar una aplicación en un clúster depende del rendimiento bruto y la escalabilidad de la aplicación.

No te olvides compartir en tu Facebook para que tus colegas lo consulten

??? ? ? ???

Comparte