La plataforma lanza productos de gestión de nube híbrida y privada para HPC - Calendae | Informática, Electrónica, CMS, Ciberseguridad

La plataforma lanza productos de gestión de nube híbrida y privada para HPC

Hola, ¿qué tal colega?. Soy Simón Sánchez y en el día de hoy te voy a hablar sobre La plataforma lanza productos de gestión de nube híbrida y privada para HPC

El miércoles, Platform Computing lanzó Platform ISF Adaptive Cluster, un producto de administración de nube privada que puede reaprovisionar dinámicamente el entorno operativo de los clústeres de HPC. La compañía también anunció una nueva función de «explosión en la nube» para ISF que permite que las aplicaciones que se ejecutan en máquinas locales capturen de manera transparente los ciclos de CPU en nubes externas. Las nuevas ofertas están diseñadas para maximizar los recursos informáticos de alto rendimiento a través del paradigma de la nube y señalar la adopción de la plataforma empresarial de gestión de la nube.

Martin Harris, Director de Gestión de Productos en Platform, dice que el objetivo del ISF Adaptive Cluster es hacer coincidir el conocimiento de la carga de trabajo (a través de Platform LSF, Symphony o un administrador de carga de trabajo de terceros) con los recursos del clústeres disponibles mientras se garantiza el cumplimiento de los acuerdos de nivel de servicio. Según Harris, muchos clientes de plataformas terminan hoy implementando múltiples clústeres de HPC, uno para cada aplicación, para garantizar un nivel de servicio del 100%. El problema con este arreglo, dice, es que la utilización de clústeres tiende a alcanzar un pico entre el 40 y el 50 por ciento. Al crear de forma dinámica clústeres virtuales para diferentes entornos de aplicaciones, creen que los clientes podrán consolidar la infraestructura del servidor y aumentar la utilización hasta en un 80-90 por ciento. «Toda la idea de lo que ofrecemos es una nube privada para HPC», dice Harris.

La forma en que funciona es que ISF Adaptive Cluster ofrece un entorno de software de aplicación en varios nodos de servidor en tiempo de ejecución según las demandas de la carga de trabajo. Desde la perspectiva del usuario, este esquema de administración de la nube les permite «jugar al Tetris con sus cargas de trabajo a través de los grupos de recursos disponibles», dice Harris, lo que ciertamente suena más divertido que el «aprovisionamiento dinámico».

Si las aplicaciones de Linux y Windows están en la mezcla, una configuración de servidor de arranque dual se emplea comúnmente para proporcionar el sistema operativo, junto con el resto de la pila de aplicaciones. La plataforma ha iniciado una colaboración con Microsoft para integrar esta dualidad del sistema operativo en la nueva oferta ISF. La idea general aquí es brindar a las aplicaciones el mismo entorno que obtendrían si se ejecutaran en clústeres configurados estáticamente, para no comprometer el rendimiento, obviamente, una gran consideración para el código HPC.

Alternativamente, la aplicación y el entorno operativo pueden incluirse en un contenedor virtualizado, VMware o algún otro fabricante de máquinas virtuales, y ejecutarse en cualquier sistema operativo nativo que esté instalado. Es probable que el rendimiento se vea afectado en este modelo, por lo que la ejecución de aplicaciones HPC en máquinas virtuales sigue siendo relativamente poco común. Pero cuando necesita capacidad adicional o no tiene la configuración de arranque dual, incluso los ciclos lentos son preferibles a ninguno.

Una de las formas en que las máquinas virtuales son útiles para los códigos de rendimiento es cuando desea recopilar servidores locales que no son HPC. Harris dice que un cliente de Platform en Europa ha encapsulado las cargas de trabajo de Platform LSF y Symphony en VMware y Citrix VM para capturar los ciclos no utilizados de sus granjas de servidores de Virtual Desktop Infrastructure (VDI) durante la noche, cuando presumiblemente la mayoría de los usuarios de escritorio él está durmiendo. Pero el caso de VM más común para HPC es cuando los usuarios quieren «explotar» en una nube pública, por ejemplo, ejecutar una parte de una aplicación como una imagen virtualizada en Amazon EC2.

La funcionalidad de explosión de nube recién agregada a la tecnología central de ISF servirá para hacer que este proceso sea más transparente y abrir la puerta a nubes híbridas para los clientes de la plataforma. El ímpetu detrás de esta función es ayudar a los clientes cuyo presupuesto les impide agregar capacidad de procesamiento interno, lo que les permite aprovechar las nubes de terceros para la carga máxima. Harris dice que durante el último año han visto un aumento de la demanda de ciclos de alquiler en nubes externas y están viendo esta tendencia en las verticales de HPC. Uno de sus clientes de EDA está enviando la nube a Amazon EC2 para obtener capacidad adicional para su trabajo de diseño electrónico.

Si bien EC2 actualmente parece ser la plataforma preferida para el estallido de la nube, Platform también colabora con IBM, HP y otros proveedores de alojamiento. Y en base a la nueva asociación de Platform con Microsoft, una integración de Azure puede no estar muy lejos.

La plataforma no es la única que extiende sus tecnologías centrales de gestión de HPC al ámbito de la computación en la nube. Univa UD también ha adoptado el modelo de entrega y ha evolucionado su línea de productos en consecuencia. Su oferta UniCloud fue uno de los primeros productos comerciales en admitir modelos de nube híbrida y privada para HPC. Adaptive Computing ofrece una capacidad similar con su Moab Adaptive HPC Suite, pero se ha abstenido de calificarlo como una solución en la nube por el momento. Es probable que otros proveedores con ofertas de administración de redes y clústeres se unan a la refriega a medida que la adopción de la nube HPC gana impulso.

Puedes compartir en tus redes sociales para que tus colegas lo vean

??? ? ? ???

Comparte