Microsoft se adapta a Azure Cloud para Big Compute - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Microsoft se adapta a Azure Cloud para Big Compute

Hola, ¿qué tal colega?. Te habla Simón Sánchez y hoy te voy a hablar sobre Microsoft se adapta a Azure Cloud para Big Compute

El martes en SC12, Microsoft presentó una serie de características de «gran computación» para su oferta de Windows Azure. La empresa corteja el espacio HPC con hardware más potente, nuevas configuraciones de instancia y el paquete Microsoft HPC actualizado 2012. El software de gestión avanzada tiene muchos nuevas características y admite la ejecución de cargas de trabajo de procesamiento intensivo en tres configuraciones: local, en Windows Azure o un escenario híbrido de uso mixto.

Big Compute en Windows Azure (no está claro si ese es el nombre final) viene en dos configuraciones. La instancia de HPC de nivel de entrada tiene 8 núcleos y 60 GB de RAM, mientras que la opción de gama alta duplica estas especificaciones para un total de 16 núcleos y 120 GB de RAM. Los nuevos servidores están equipados con Xeon E5-2670 dual (2,6 GHz) con RAM DDR3 de 1600 MHz. Los nodos se conectan a través de una red InfiniBand de 40 Gbps con RDMA, mientras que se utiliza un backplane de 10 GbE para conectarse a la memoria externa. e Internet.

Las nuevas configuraciones recuerdan las instancias de alta memoria de Amazon. El Double Extra Large de alta memoria (m2.2xlarge) tiene 4 núcleos virtuales con 34 GB de memoria, mientras que el Extra Large Quadruple de alta memoria (m2.4xlarge) tiene 8 núcleos virtuales y 68,4 GB de memoria .

Sin embargo, una distinción importante es que Amazon usa tecnología de interconexión de 10GbE, y por lo tanto, solo en sus instancias de Cluster Compute y Cluster GPU, mientras que Microsoft presenta la capacidad de ejecutar RDMA (acceso directo a memoria remota) en un entorno virtualizado. La tecnología proporciona capacidades de red de baja latencia para aplicaciones de interfaz de paso de mensajes (MPI) y permite que un clúster de Azure envíe un paquete de 4 bytes entre máquinas en 2,1 microsegundos. Alex Sutton, gerente de programa de grupo para Windows HPC Server, entrevistado para este artículo sobre SC12, dijo que Microsoft es la primera empresa en ofrecer RDMA virtualizado en un entorno comercial.

«Para las aplicaciones escritas para usar la biblioteca de Interfaz de transmisión de mensajes (MPI), RDMA permite que la memoria en varias computadoras actúe como un grupo de memoria», escribe Bill Hilf, gerente general, Marketing de productos de Windows Azure, en un Entrada de blog. «Nuestra solución RDMA proporciona un rendimiento casi completo (es decir, un rendimiento comparable al de una máquina física) en la nube, lo que es especialmente importante para las aplicaciones de Big Compute».

Según Sutton, la penalización del rendimiento por ejecutar la virtualización ahora se ha reducido a una diferencia del 1 o 2 por ciento. Esto atraerá a las organizaciones que desean acceder a los beneficios de la nube (flexibilidad, escalabilidad, bajo demanda, etc.), pero no están dispuestas a sacrificar el rendimiento. El uso de InfiniBand también mejora el rendimiento, lo que permite que las aplicaciones escalen de manera más eficaz y mejoran el tiempo de obtención de resultados.

Como prueba de concepto, Microsoft ejecutó el punto de referencia LINPACK en 504 máquinas virtuales de 16 núcleos (8.064 núcleos en total). El grupo de prueba, llamado Faenov, logró 151,3 teraflops (167,7 pico) con una eficiencia del 90,2%, obteniendo el 165 ° lugar sobre el última lista TOP500. En términos de eficiencia, el sistema se ubicó en el puesto 27. Faenov ejecutó Windows Server 2012 en máquinas virtuales alojadas en Windows Azure además de la virtualización Hyper-V. Sutton señala que la eficiencia del 90,2% es mejor que muchos clústeres locales (no virtualizados).

Mantener la latencia de E / S del sistema bajo control aún deja la barrera del ancho de banda que es la Internet del consumidor, pero para la mayoría de los clientes esto no será un problema. Para aquellos que necesitan realizar grandes transferencias de datos dentro y fuera de la nube, Microsoft planea admitir «FedEx net» (envío de unidades físicas) tarde o temprano.

No se han anunciado los precios de las nuevas configuraciones, por lo que aún no será posible comparar precios con EC2, Google Compute Engine y otras ofertas de IaaS. Inicialmente, «Big Compute» solo ejecutará Windows, pero están buscando en Linux. Por supuesto, el hardware es compatible con Linux, pero los ingenieros aún tienen que descubrir cómo ejecutarlo en RDMA virtualizado.

Microsoft describe las primeras historias de éxito en un segmento de clientes que ejecutan Windows y requieren baja latencia. El interés inicial y las historias de los clientes cubren las áreas de modelado de riesgos, investigación de enfermedades y actividades complejas de ingeniería. El big data también está en el radar de Microsoft, ya que la empresa espera que muchas cargas de trabajo de big data se beneficien de las nuevas configuraciones.

El anuncio de hoy nos muestra una Microsoft que continúa evolucionando en el frente de la nube, tanto para competir con EC2 como para respaldar a la comunidad HPC. Azure se lanzó originalmente como una oferta de PaaS en 2010, pero en junio de este año Microsoft agregó capacidades de IaaS (Infraestructura como servicio) y comenzó a permitir a los usuarios iniciar máquinas virtuales Linux. Los clientes quieren opciones, pero con su arquitectura especialmente diseñada y sus importantes tiempos de entrega, Amazon será difícil de capturar. Microsoft tiene seguidores dedicados de usuarios de Windows, pero la mayor parte de la acción en la comunidad HPC tiene que ver con Linux.

Será interesante ver si la virtualización de baja latencia se convierte en un diferenciador para Azure. Puede que requiera algo de investigación y desarrollo, pero Amazon podría equipar su nube de manera similar si ven una solicitud. Para que la nube sea rentable, debe mantener el equilibrio de uso adecuado. Demasiado inventario adicional es tan malo para las empresas a largo plazo como muy poco inventario a corto plazo. Las empresas en la nube solo quieren el derecho a amortiguar (o exceso de inventario). En este punto, Microsoft afirma realizar un seguimiento de la demanda y mantener un control estricto sobre el proceso de pedido.

Big Compute en Windows Azure se encuentra actualmente en versión preliminar privada con socios seleccionados. Se espera que comience un período de beta pública en el primer semestre de 2013, seguido de la disponibilidad general en el mismo período de tiempo.

No te olvides compartir en en tu Twitter y Facebook para que tus amigos lo lean

??? ? ? ???

Comparte