El procesamiento basado en host elimina los problemas de escala para los tejidos InfiniBand

Hola, ¿qué tal colega?. Soy Simón Sánchez y hoy vamos a hablar sobre El procesamiento basado en host elimina los problemas de escala para los tejidos InfiniBand

Las instalaciones científicas, de ingeniería y de investigación confían en los tejidos InfiniBand porque ofrecen el mayor ancho de banda disponible y la menor latencia disponible. Sin embargo, según el diseño de las InfiniBand HCA, esta ventaja puede desperdiciarse a medida que el número de nodos de procesamiento aumenta a cientos o miles. Uno de los principales desafíos en el escalado eficiente es cómo y dónde se procesa el protocolo InfiniBand.

Procesamiento basado en adaptadores vs. procesamiento basado en host

Hay dos formas básicas de manejar el procesamiento de protocolos y la elección puede marcar una gran diferencia en el rendimiento general de la estructura, especialmente cuando un clúster es escalable. Algunos proveedores dependen en gran medida de las técnicas de procesamiento basadas en adaptadores («en carga), donde cada adaptador de canal de host InfiniBand (HCA) incluye un microprocesador integrado que procesa protocolos de comunicación. Otros proveedores utilizan principalmente host, donde el servidor procesa los protocolos de comunicación
En los primeros días de los clústeres InfiniBand, un servidor típico podía tener solo uno o dos procesadores de un solo núcleo o de doble núcleo. Con la capacidad de emitir una instrucción por segundo a una frecuencia de reloj relativamente baja, estos servidores se han beneficiado de descargar el procesamiento de comunicaciones en el adaptador de canal de host.

Hoy estamos en un entorno muy diferente. En comparación con los nodos informáticos actuales, el x86-64 moderno proporciona una potencia significativamente mayor que la reciente (Harpertown) y, obviamente, es mucho más rápido que un motor de microprocesador que se encuentra normalmente en un dispositivo de descarga. Hoy en día, el procesador Intel Nehalem o Westmere genera cuatro instrucciones por ciclo de reloj y funciona a una velocidad de reloj de 3 GHz. Como resultado, cada núcleo de un procesador Nehalem funciona 24 veces más rápido que un motor de microprocesador. genérico operando a 500 MHz y una instrucción por ciclo.

Figura 1 – Nehalem vs. Harpertown

Impacto de la escala de clústeres en el procesamiento de protocolos

A medida que los usuarios intentan resolver problemas informáticos más complejos en menos tiempo, los clústeres de HPC continúan creciendo en términos de nodos por sistema y núcleos por nodo. Los clústeres que alguna vez usaron de dos a cuatro núcleos por nodo ahora suelen incluir ocho, con 12, 16 y 24 nodos de núcleo a la vuelta de la esquina. Para aprovechar al máximo la potencia de procesamiento adicional, el adaptador (o adaptadores en algunos casos) debe poder mantenerse al día con el aumento exponencial de las comunicaciones en todo el clúster.

Teniendo esto en cuenta, la elección entre procesamiento de protocolo basado en host y basado en adaptador comienza a tener serias implicaciones. Como se muestra en la Figura 2, el procesador de protocolo integrado en un HCA «alcanza un pico» a aproximadamente ocho millones de mensajes por segundo. Más significativamente, el rendimiento de este adaptador en realidad disminuye a medida que la cantidad de núcleos del procesador supera los 4 o 5. Cuando extrapola este efecto a cientos de nodos, queda claro que cuando la informática basada en adaptadores es la técnica principal en uso, El beneficio incremental de agregar nodos disminuye a medida que aumenta el número de nodos porque los HCA se convierten en el cuello de botella.

Con el procesamiento basado en host, es una historia diferente. El rendimiento del procesamiento del protocolo basado en host se escala de manera mucho más lineal junto con la cantidad de núcleos disponibles. Más núcleos equivalen a un rendimiento más rápido, como debería, por lo que los usuarios pueden aprovechar la Ley de Moore para escalar continuamente el procesamiento del protocolo InfiniBand siempre que tengan un adaptador que pueda aprovechar al máximo la potencia adicional. Las pruebas internas han demostrado que se pueden lograr hasta 30 millones de mensajes procesados ​​por segundo en un nodo de 8 núcleos, según lo medido por el punto de referencia multibanda desarrollado por la Universidad Estatal de Ohio. Y lo más importante, esta tasa de mensajes escala junto con la cantidad de núcleos activos.

Figura 2 – Velocidad del mensaje de diapositivas HCA DS cargado en comparación con el descargado

Otros beneficios de la informática basada en host

El rendimiento a gran escala es el factor más importante en los entornos HPC, pero el procesamiento de protocolos basado en host ofrece muchos otros beneficios que lo convierten en la opción obvia. Por ejemplo, los HCA InfiniBand sin microprocesadores integrados pueden ser menos complejos, menos costosos y consumen menos energía que los HCA con procesamiento integrado.

El rendimiento de la conmutación por error es otro problema. Con el procesamiento de protocolo basado en adaptador, el estado de la conexión HCA se pierde en caso de falla, lo que requiere que todas las conexiones se reconstruyan desde cero. Por el contrario, el procesamiento basado en host mantiene el estado de conexión en el host, lo que permite tiempos de recuperación mucho más rápidos.

En las instalaciones actuales de HPC, el procesamiento de protocolos basado en adaptadores no es más que un vestigio de los días en que InfiniBand era relativamente nuevo y los servidores tenían relativamente poca potencia. Con los servidores multinúcleo modernos, tiene sentido aprovechar el crecimiento exponencial de la potencia de procesamiento del host para un rendimiento óptimo, especialmente cuando no hacerlo puede limitar el rendimiento de toda la instalación. Con clústeres de HPC en rápida expansión, el procesamiento del protocolo InfiniBand basado en host maximiza su inversión en recursos informáticos al eliminar los cuellos de botella del adaptador.

Acerca de

No te olvides compartir en en tu Twitter y Facebook para que tus colegas lo lean

??? ? ? ???

Comparte