Permita que los centros de datos se enfríen - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Permita que los centros de datos se enfríen

Hola, un placer verte por aquí. En el teclado Simón Sánchez y en esta ocasión te voy a contar sobre Permita que los centros de datos se enfríen

A medida que los sistemas cada vez más densos aumentan la temperatura de la sala de ordenadores, las nuevas soluciones de refrigeración permiten que el agua se caliente.

Los últimos sistemas de racks de alta densidad están de moda y en más de un sentido.

Los racks de alta densidad se están volviendo populares a medida que las organizaciones necesitan un mayor rendimiento informático para ejecutar las aplicaciones HPC actuales. Pero para muchas instituciones, laboratorios y empresas, la «expansión de servidores» resultante de años de escalado de clústeres no puede continuar. En pocas palabras, las salas de informática se están quedando sin espacio.

Por lo tanto, los directores de TI están recurriendo a procesadores multinúcleo más rápidos y diseños de tarjetas ultra densos para consolidar granjas de servidores en expansión en racks altos apilados con servidores densos e incluso blades más densos. A medida que aumentan los requisitos informáticos, más y más de estos racks llegan al centro de datos. Como resultado, el calor se convierte rápidamente en una preocupación importante para los administradores de sistemas.

Si bien esto es menos preocupante para los nuevos centros de datos con sistemas de ventilación y enfriamiento especialmente diseñados para adaptarse a instalaciones más rápidas y cálidas, la mayoría de las instalaciones no son nuevas. Están repletos de sistemas heredados, cada uno con su propio equipaje de gestión térmica particular.

Problemas con el calor

El calor excesivo puede introducir una constelación de problemas. Dentro del centro de datos, los administradores de TI suelen organizar los sistemas informáticos tratando de alternar pasillos «calientes» y «fríos»; en otras palabras, intentan distribuir los pasillos de escape (caliente) y de succión (frío) a lo largo la habitación para evitar puntos calientes que pueden empujar la temperatura ambiente más allá de los límites aceptables. De hecho, un problema creciente con los estantes altos y calientes es la tendencia de algunos sistemas a emitir tanto escape caliente que el sistema de ventilación de la sala de computadoras simplemente no puede eliminarlo todo. Con demasiada frecuencia, parte de ese aire caliente se escapa al pasillo frío, recircula hacia el sistema y hace que el bastidor funcione más caliente de lo necesario.

Este fenómeno trae consigo importantes costes:

  • Impacto en el hardware. La exposición a temperaturas que exceden las tolerancias prescritas puede causar fallas en el sistema y, en última instancia, acortar la vida útil de los componentes. Es fácil imaginar cómo. Tenga en cuenta que los racks densos de 30 kilovatios (kW) son cada vez más populares en los centros de datos actuales. Un bastidor que extrae tanta energía emitirá aproximadamente la misma cantidad de calor que 300 bombillas de 100 vatios. Sin un sistema de enfriamiento efectivo, esa rejilla puede alcanzar temperaturas peligrosas en minutos.
  • Impacto en los costes energéticos. A medida que las salas de computadoras se calientan, cuestan más energía y enfriamiento. The Green Grid, un consorcio sin fines de lucro dedicado a mejorar la eficiencia energética en los centros de datos (www.thegreengrid.org) estableció una métrica mediante la cual las organizaciones pueden estimar el impacto total de las demandas de energía de un sistema, incluido el costo de enfriamiento del sistema. La métrica de eficacia en el uso de energía (PUE) de Green Grid es esencialmente una relación que proporciona un multiplicador útil para comprender el costo de energía de «carga completa» de un sistema. Por ejemplo, si un nuevo bastidor de blades de varios núcleos consume 30 kW y el PUE del centro de datos es 3,0, el consumo de energía total del bastidor es de 90 kW. Los estudios iniciales sugieren que un PUE de 2.0 parece relativamente promedio, con algunas instalaciones que reportan índices de PUE tan bajos como 1.3 y otros por encima de 3.0. (Cuanto más cerca esté el PUE de 1.0, mejor). Incluso cuando los diseños de servidor y blade se vuelven más eficientes energéticamente, los aumentos proporcionales en la densidad aún crean problemas de enfriamiento que pueden conducir a relaciones PUE más altas.

A medida que aumentan la densidad del sistema y las velocidades del procesador, lo que sugiere que la disipación de calor seguirá siendo un desafío en los próximos años, tanto los proveedores como los usuarios finales han seguido una variedad de enfoques de enfriamiento. El uso de agua para transportar el calor lejos de los sistemas y del centro de datos en general está ganando popularidad en todos los frentes.

Agua: el refrigerante preferido

Como saben muchos veteranos de HPC, la refrigeración líquida no es nueva. Se ha utilizado durante mucho tiempo en grandes implementaciones personalizadas, que se remontan a 1964, cuando IBM lanzó su primer sistema informático refrigerado por agua. Para implementaciones más modernas, el agua sigue siendo el refrigerante preferido.

El enfriamiento por agua generalmente funciona un poco como el radiador de un automóvil, solo que al revés. En un automóvil, una mezcla de agua / glicol que circula a través del radiador es enfriada por el flujo de aire entrante causado por el movimiento hacia adelante del automóvil. En un sistema informático, los ventiladores envían calor a un serpentín de agua, que absorbe el calor y lo transporta o enfría antes de que el aire llegue al entorno ambiental del centro de datos. Algunas soluciones envían el agua calentada a una estación de refrigeración central que disipa el calor de manera segura y bombea el agua fría de regreso a las baterías en los sistemas de estantes. La tubería fluye debajo del piso del centro de datos, compartiendo el espacio de flujo de aire con los cables.

Los principales proveedores de sistemas e incluso empresas que se especializan en proporcionar soluciones de refrigeración adicionales ofrecen diferentes tipos de implementaciones de refrigeración por agua. Todos operan con el mismo enfoque fundamental para el intercambio de calor, incluso si su enfoque particular es diferente.

Flujo de aire de rack de circuito cerrado. Disponibles en una variedad de empresas, incluida HP, estas soluciones utilizan bobinas refrigeradas por agua montadas dentro del bastidor para eliminar el calor ganado después de que el aire pasa a través de los componentes electrónicos del sistema. Estas soluciones luego hacen recircular el aire enfriado en el bastidor. Algunos sistemas de circuito cerrado se instalan junto a un bastidor y se denominan sistemas «sidecar». Una opción de terceros, de Knurr CoolTherm, cuenta con bobinas montadas debajo del espacio de rack configurable.

Flujo de aire de rack de circuito abierto. La elección de los proveedores de soluciones HPC como SGI e IBM, este enfoque también utiliza aire ventilado para enfriar la electrónica del sistema. Luego, el aire se enfría a través de bobinas enfriadas por agua y el aire enfriado se ventila a la parte posterior del bastidor. Estas soluciones tienen como objetivo mantener el aire de escape solo un poco más caliente que el entorno del centro de datos, minimizando así la posibilidad de puntos calientes. Las soluciones de circuito abierto están disponibles en una variedad de factores de forma para adaptarse a múltiples arquitecturas de centros de datos.

Puertas refrigeradas por agua: cómodas y eficaces

Las soluciones de serpentines refrigerados por agua, ya sean implementaciones de circuito abierto o cerrado, están evolucionando rápidamente. A medida que más y más usuarios de HPC implementan estas opciones de gestión térmica, los proveedores encuentran formas de hacer que las soluciones sean más eficientes y, lo que es más importante, más asequibles.

Uno de los avances más importantes es la puerta refrigerada por agua. Con la primera implementación OEM de servidores introducida por SGI en 2004, este enfoque contiene el mecanismo de refrigeración por agua completamente dentro de una puerta trasera con bisagras, que se puede abrir en cualquier momento para permitir un fácil acceso a los motores neumáticos y cables, y la puerta refrigerada por agua lo hace. Diseños como estos pueden reducir drásticamente el tiempo que lleva desplegar el bastidor, sin mencionar el esfuerzo requerido para mantenerlo y repararlo.

Este enfoque ha demostrado su eficacia desde su introducción. Solo SGI ha realizado cientos de instalaciones de bastidores HPC con puertas refrigeradas por agua. Una de esas instalaciones es la histórica supercomputadora Columbia de la NASA, que funciona con 10.240 núcleos de procesador empaquetados en 20 nodos. Columbia, una de las supercomputadoras más poderosas del planeta, ha proporcionado 142 millones de horas de uso productivo desde que se instaló en octubre de 2004. Sus nodos de mayor densidad están refrigerados por agua.

Las puertas refrigeradas por agua no solo son convenientes, sino también efectivas. Por ejemplo, se ha demostrado que las puertas refrigeradas por agua de tercera generación de SGI eliminan el 95% del calor generado por el sistema de estantes. En términos reales, esto significa que el calor expulsado de un bastidor de 30 kW se reduciría al calor de un sistema de 1,5 kW. Al revisar nuestra analogía con las bombillas de 100 vatios, estamos reduciendo el calor de 300 bombillas a solo 15.

Más o menos igual, solo que mejor

Las soluciones de gestión térmica refrigeradas por agua de hoy en día están diseñadas para resolver los desafíos térmicos que plantean los sistemas basados ​​en componentes refrigerados por aire estándar de la industria. Da la casualidad de que estos son los mismos sistemas que impulsan la mayor parte del crecimiento en la industria de HPC y, a su vez, su popularidad requerirá mejoras continuas en las soluciones de refrigeración. Porque, como hemos establecido, el futuro se trata de densidad.

Mientras tanto, algunas empresas están buscando enfoques más especializados para llevar la refrigeración líquida más al bastidor. Las técnicas actuales varían mucho. Algunos sistemas rocían refrigerantes directamente sobre los componentes que generan calor, como las CPU. Otros usan metal líquido para conducir el calor lejos de las fuentes de calor. Todos buscan lo mismo que el enfriamiento por agua: minimizar las molestias y los costos proporcionales asociados con el exceso de calor.

Si bien es posible que algún día uno o más de estos enfoques sofisticados tengan una adopción más amplia en los entornos de HPC, la gran mayoría de los sistemas actuales aún deben cumplir los objetivos agresivos de precio / rendimiento que permiten a los usuarios finales adquirir y distribuir los activos que necesitan. lo necesitan, cuando lo necesitan.

Entonces parece que, al menos en el futuro previsible, vamos a dejar que el agua se caliente.

—–

Tim McCann es ingeniero jefe de SGI y uno de los principales arquitectos de puertas refrigeradas por agua de SGI. En la Conferencia Internacional de Supercomputación en Dresde, Alemania, asistió a una sesión de Birds of a Feather sobre el consumo de energía de los sistemas HPC. Para más información visite http://www.supercomp.de/isc2007/index.php5?s=conference&s_nav=bofs.

No te olvides compartir en en tu Twitter y Facebook para que tus amigos lo sepan

??? ? ? ???

Comparte