Desacoplamiento de HPC del centro de datos - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Desacoplamiento de HPC del centro de datos

Hola de nuevo. Yo soy Simón Sánchez y en esta ocasión hablaremos sobre Desacoplamiento de HPC del centro de datos

Es poco probable que la democratización de HPC ocurra si todas las empresas e instituciones se ven obligadas a construir y mantener centros de datos multimillonarios para albergar supercomputadoras. Las limitaciones de energía, refrigeración y espacio, así como la falta de habilidades de administración de sistemas, limitarán la expansión de los centros de datos de HPC.

Con la concentración de la potencia informática en los blades y factores de forma cada vez más pequeños, la creación de un gran centro de datos se ha convertido en una aventura hidráulica creativa. Se espera que la nueva instalación de 95,000 pies cuadrados en construcción en la Universidad de Illinois que albergará la supercomputadora multi-petaflop ‘Blue Waters’ en 2011 cueste $ 72.5 millones (en comparación con $ 194.4 millones para la supercomputadora en sí). Agregue energía y enfriamiento de por vida para lo que seguramente será un sistema de varios megavatios, y es razonable esperar que la instalación más los costos operativos se acerquen al gasto original del hardware en sí.

Para los centros de datos heredados que no se pueden expandir, especialmente aquellos en áreas urbanas, el desafío es actualizar con hardware que se ajuste al espacio existente pero que no sobrecargue la capacidad de enfriamiento y energía del edificio. Y para los usuarios de estaciones de trabajo que deseen trasladarse al ámbito de HPC, pero no tienen un centro de datos y no tienen planes de construir uno, el problema es aún más obvio.

¿Existen alternativas? Hay dos desarrollos relativamente recientes que podrían liberar a los usuarios de HPC de su hábito de centro de datos: la supercomputadora personal y la computación en la nube.

Me doy cuenta de que usar la nube para aliviar el problema del centro de datos parece contradictorio. Por supuesto, la computación en la nube también requiere centros de datos. Simplemente estás empujando el problema hacia otro lado. La idea aquí es deshacerse de las instalaciones en el sitio. El gran beneficio es que los centros de datos a gran escala pueden ubicarse (y a menudo lo están) donde la energía, el enfriamiento y los bienes raíces no son una ventaja y pueden usar economías de escala para reducir aún más los costos.

Por ejemplo, Google, Microsoft y Yahoo han abierto tiendas a lo largo del río Columbia en Oregon para aprovechar la energía hidroeléctrica de bajo costo en el área. Para atender sus servicios en la nube en expansión, Amazon anunció recientemente que estaba construyendo tres nuevas instalaciones a lo largo de Columbia, junto con su propia subestación de energía de 10 megavatios. Google incluso está considerando centros de datos flotantes en alta mar que podrían ser alimentados y enfriados por el diferencial de temperaturas del océano.

Los beneficios de la computación en la nube son obvios. No solo puede abandonar el centro de datos local, sino también la supercomputadora, junto con todos los costos asociados de administración y mantenimiento del hardware y software del sistema. Al mismo tiempo, solo paga por la computadora que usa y puede aumentar (o reducir) el problema según sus necesidades.

Los inconvenientes son igualmente numerosos y están bien descritos en un artículo reciente de Thomas Sterling y Dylan Stark de LSU. En pocas palabras, existen clases de aplicaciones de HPC que no se asignan tan bien a la nube como existen en la actualidad, debido a limitaciones en la infraestructura de la nube o debido a problemas de seguridad de los datos. El primero tiene que ver con los efectos nocivos de la virtualización y los clústeres poco acoplados en el rendimiento, en particular para aplicaciones HPC altamente ajustadas y estrechamente acopladas. En cuanto a la seguridad de los datos, digamos que Los Alamos no realizará simulaciones de armas nucleares en el EC2 de Amazon en el corto plazo.

Pero tambien el

Ya existen algunos servicios de HPC. Grid Compute Utility de Sun, Computing on Demand de IBM y Star-P On-Demand de Interactive Supercomputing han estado disponibles durante algún tiempo. MathWorks y Wolfram Research incorporaron recientemente soporte para computación en la nube en MATLAB y Mathematica, respectivamente. Y esta semana, Univa UD lanzó una función de virtualización HPC utilizando Amazon EC2. Espero ver una serie de nuevas ofertas de HPC en la nube en 2009.

De vuelta en la Tierra, el otro asesino potencial del centro de datos es la supercomputadora personal (PSC), que puede ocupar el escritorio, el escritorio o el armario de la oficina. La generación actual de PSC se basa en gran medida en GPU, que ahora pueden proporcionar aceleración de varios teraflop. Estas máquinas estuvieron muy presentes en SC08, gracias en gran parte a la introducción de sistemas equipados con NVIDIA Tesla.

Por supuesto, hemos visto a estos súper personales ir y venir. Hace solo unos años, Tyan Computer y Orion Multisystems lanzaron máquinas en clúster de escritorio. Pero estas máquinas sub-teraflop nunca tuvieron éxito.

La nueva cosecha de máquinas aceleradas por GPU me parece más permanente. Por un lado, son más poderosos. Con 4 teraflops (precisión simple) tienen un rendimiento serio que ofrecer. Además, con CUDA, OpenCL y una gran cantidad de otros software que están rápidamente disponibles a través de fabricantes de herramientas de terceros, parece que la computación GPU ha establecido rápidamente un nuevo nicho en el ecosistema HPC. Con jugadores famosos como Cray, Dell y Penguin Computing que ofrecen PSC (con entornos Linux y Windows), hay muchas más posibilidades de que estas máquinas se mantengan.

También son posibles las PSC sin GPU. SiCortex ya ofrece su sistema de escritorio de 72 núcleos basado en MIPS, aunque está posicionado principalmente como una máquina de desarrollo para los clústeres más grandes de la compañía. Si el recién llegado Convey Computer decide envolver su nuevo servidor de «núcleo híbrido» basado en FPGA en un escritorio o incluso en un sistema de escritorio, esto podría tener las características de un sistema HPC muy interesante para uso personal. Para aquellos de ustedes que quieran seguir con las cajas vanilla x86, pronto será posible construir máquinas personales de múltiples teraflop a partir de los próximos procesadores Intel Nehalem de Intel. Más tarde, el procesador de muchos núcleos Larrabee, o sus derivados, debería proporcionar un motor de procesamiento natural para el teraflope de escritorio.

Entonces, ¿qué modelo prevalecerá? Aquí hay un escenario posible: los sistemas de escritorio, escritorio y oficina destruirán el mercado de gama baja y media desde abajo, mientras que las aplicaciones de HPC que requieren un paralelismo a gran escala se trasladarán a la nube. Para aplicaciones de capacidad de supercomputación, quizás surjan nubes diseñadas específicamente para HPC de alta gama. No es demasiado difícil imaginar a TeraGrid de NSF y DEISA (Infraestructura europea distribuida para aplicaciones de supercomputación) de la Comisión Europea apoyando los servicios en la nube destinados a la supercomputación. El DOE de EE. UU. Podría desarrollar nubes complementarias para su comunidad de usuarios.

En la medida en que los problemas del centro de datos inhiban la adopción de HPC, las nubes y las PSC se verán cada vez más atractivas. Anticipo mucha experimentación en ambas áreas durante el próximo año.

No te olvides compartir en tu Facebook para que tus colegas lo flipen

??? ? ? ???

Comparte