A Infini (Band) ty y más allá - Calendae | Informática, Electrónica, CMS, Ciberseguridad

A Infini (Band) ty y más allá

Hola otra vez. En el teclado Simón Sánchez y esta vez hablaremos sobre A Infini (Band) ty y más allá

El corazón de un centro de datos es la red que conecta todos los elementos de procesamiento y almacenamiento. Para que estos elementos funcionen juntos y formen una supercomputadora (para investigación, nube o aprendizaje profundo), la red debe ser altamente eficiente y extremadamente rápida. InfiniBand es una tecnología estándar de la industria que ha sido (y continúa siendo) desarrollada con la visión de formar una red definida por software (SDN) pura y altamente escalable. En 2003, conectó una de las tres mejores supercomputadoras del mundo. La lista de supercomputadoras TOP500 de junio de 2020 afirmó que InfiniBand conecta siete de las diez mejores supercomputadoras del mundo. InfiniBand se ha adoptado en gran medida para las infraestructuras de aprendizaje profundo y se utiliza cada vez más para los centros de datos en la nube de hiperescala como Microsoft Azure y otros. Los beneficios de rendimiento, escalabilidad y eficiencia de InfiniBand continúan impulsando la creciente y sólida adopción de InfiniBand, ya que es la tecnología ideal para aplicaciones con uso intensivo de datos y procesamiento intensivo.

InfiniBand ofrece beneficios clave: es una red de descarga de transporte completa, lo que significa que todas las operaciones de la red son administradas por la red y no por la CPU o GPU; permite un tráfico de datos más eficiente, lo que significa que se transportan más datos con menos gastos generales; hoy es la única red de extremo a extremo de 200 gigabit por segundo de alto rendimiento; tiene la latencia más baja de cualquier otra red estándar o propietaria; y lo más importante, incorpora motores de procesamiento de datos dentro de la red que aceleran el procesamiento de datos para el aprendizaje profundo y el procesamiento de alto rendimiento.

La respuesta a por qué InfiniBand tiene estas ventajas y mantiene constantemente el liderazgo tecnológico por delante de una generación se puede encontrar en los cuatro fundamentos principales de la tecnología InfiniBand:

  1. Un punto final muy inteligente: un punto final que puede realizar y administrar todas las funciones de red (a diferencia de Ethernet o redes propietarias) y, por lo tanto, puede aumentar el tiempo de CPU o GPU que se puede dedicar a aplicaciones reales. Dado que el punto final está ubicado cerca de la memoria CPU / GPU, también puede manejar operaciones de memoria de manera muy efectiva y eficiente, por ejemplo, a través de RDMA o GPUDirect RDMA / almacenamiento.
  2. Una red de conmutadores diseñada para la escalabilidad: es una red definida por software (SDN) pura. Los conmutadores InfiniBand, por ejemplo, no requieren un servidor integrado dentro de cada dispositivo de conmutador para administrar el conmutador y ejecutar su sistema operativo (si es necesario en el caso de otras redes). Esto convierte a InfiniBand en una estructura de red líder en costos en comparación con Ethernet o cualquier red patentada disponible. También permite innovaciones tecnológicas únicas, como In-Network Computing, lo que significa que los cálculos de datos se realizan sobre los datos a medida que se transfieren a través de la red. Un ejemplo destacado es la tecnología Scalable Hierarchical Aggregation and Reduction Protocol (SHARP) ™, que ha demostrado importantes mejoras de rendimiento para los marcos de aplicación científica y de aprendizaje profundo.
  3. Gestión centralizada: puede gestionar, controlar y utilizar la red InfiniBand desde un único punto. También puede diseñar y construir cualquier tipo de topología de red y personalizar y optimizar la red del centro de datos para sus aplicaciones de destino. No es necesario crear múltiples y diferentes cajas de interruptores para diferentes partes de la red y no es necesario administrar tantos algoritmos de red complejos. La filosofía detrás de la tecnología InfiniBand es mejorar el rendimiento por un lado y reducir el OPEX por el otro.
  4. Por último, pero no menos importante, InfiniBand es una tecnología estándar que garantiza la compatibilidad con versiones anteriores y posteriores y es de código abierto con API abiertas. Por lo tanto, al mover su software de una generación a la siguiente, protege sus inversiones. Y a diferencia de las redes patentadas que requieren que invente la misma rueda una y otra vez, InfiniBand disfruta del soporte de un amplio ecosistema de software y un rico conjunto de marcos de software.

Por supuesto, los centros de datos conectados a InfiniBand se pueden conectar fácilmente a redes Ethernet externas a través de pasarelas de baja latencia InfiniBand a Ethernet (200 nano-segundos). InfiniBand también ofrece conectividad de largo alcance de decenas a miles de millas, lo que permite que los centros de datos remotos se conecten entre sí.

La InfiniBand Trade Association (IBTA) acaba de publicar una actualización de la hoja de ruta de InfiniBand, recordando las generaciones futuras de InfiniBand que se muestran en la Figura 1.

Figura 1: Hoja de ruta de InfiniBand

Un puerto de conmutador o adaptador InfiniBand típico incluye 4 pares seriales diferenciales, también llamado puerto InfiniBand 4X. La última hoja de ruta de InfiniBand especifica NDR 400 gigabits por segundo (Gb / s) para un puerto InfiniBand 4X como la siguiente velocidad, seguido de XDR 800 Gb / sy luego GDR 1.6 terabits por segundo (1600 Gb / s). Esta hoja de ruta es la hoja de ruta de interconexión más agresiva de la industria, cuyo objetivo es mantener la ventaja de generación de clientes potenciales y brindar las velocidades de datos necesarias para futuras aplicaciones de procesamiento y uso intensivo de datos.

Una tecnología clave que permite un alto rendimiento y escalabilidad de supercomputación es la informática en red. Los motores de procesamiento en red se refieren a motores de procesamiento preconfigurados o programables ubicados en la ruta de datos de los adaptadores o conmutadores de red. Estos motores pueden procesar datos o realizar actividades algorítmicas predefinidas en los datos a medida que se transfieren a través de la red. Dos ejemplos de tales motores son la coincidencia de etiquetas MPI de hardware InfiniBand y el Protocolo de reducción y agregación jerárquica escalable escalable InfiniBand (SHARP).

SHARP ha aparecido en numerosas publicaciones anteriores, incluso recientemente en ISC’20 en un artículo titulado «Diseño y evaluación de hardware de agregación y agregación jerárquica escalable (SHARP)» por Richard L. Graham, Lion Levi, Devendar Burredy, Gil Bloch, Gilad Shainer, David Cho, George Elias, Daniel Klein, Joshua Ladd, Ophir Maor, Ami Marelli, Valentin Petrov, Evyatar Romlet, Yong Qin e Ido Zemah.

La tecnología de coincidencia de etiquetas MPI de hardware de InfiniBand se muestra en la Figura 2.

Figura 2: Tecnología de coincidencia de etiquetas MPI de hardware InfiniBand

El estándar Message Passing Interface (MPI) le permite recibir mensajes coincidentes según las etiquetas incrustadas en el mensaje. Procesar cada mensaje para evaluar si sus etiquetas coinciden con las condiciones de interés puede llevar mucho tiempo y ser un desperdicio.

Las operaciones de envío / recepción de MPI requieren la coincidencia de los parámetros del mensaje de origen y destino para entregar los datos al destino correcto. El orden de la correspondencia debe seguir el orden en que se envían y reciben. Los desafíos clave para proporcionar un soporte eficiente de coincidencia de etiquetas incluyen la gestión de los metadatos necesarios para la coincidencia de etiquetas, copias temporales de datos para minimizar la latencia entre la coincidencia de etiquetas y la entrega de datos, seguimiento de recibos publicadas que no han sido coincidentes, llegadas de mensajes inesperados y coincidencia de etiquetas superposición y entrega de datos asociados con el cálculo en curso.

Los adaptadores de red InfiniBand ConnectX-6 HDR y más allá brindan soporte para la coincidencia de etiquetas asíncronas basadas en hardware y la entrega de datos. La coincidencia de etiquetas basada en hardware de red reduce la latencia de múltiples operaciones MPI, al mismo tiempo que aumenta la superposición entre el procesamiento MPI y la comunicación, como se muestra en la Figura 3.

Figura 3: Rendimiento de MPI con coincidencia de etiquetas MPI de hardware InfiniBand. La prueba fue realizada por el equipo MVAPICH de la Universidad Estatal de Ohio en la supercomputadora Frontera del Centro de Computación Avanzada de Texas, HDR 200G InfiniBand. MPI Ialltoall con 32 nodos, MPI Iscatterv con 1024 nodos

El equipo MVAPICH de la Universidad Estatal de Ohio demostró un aumento de rendimiento de 1.8x con la coincidencia de etiquetas de hardware InfiniBand. El equipo también demostró un aumento de rendimiento de 1.4x para las aplicaciones 3DStencil de 128 nodos en la supercomputadora Texas Advance Compute Center Frontera.

El paquete de motores de In-Network Computing InfiniBand no existe en ninguna otra red, ya sea Ethernet de larga data o redes propietarias como Omnipath, Aries o Slingshot (a las que se hace referencia como «Ethernet HPC» con fines de marketing). Entonces, si bien InfiniBand ofrece muchos beneficios, como alto rendimiento de datos, latencia extremadamente baja y mecanismos avanzados de control de congestión y enrutamiento adaptativo, es la tecnología In-Network Computing de InfiniBand, que convierte la red InfiniBand en una unidad de procesamiento de datos, que constituye la razón principal del creciente uso de InfiniBand en supercomputación a gran escala, aprendizaje profundo y plataformas en la nube.

Deberías compartir en una historia de tu Instagram para que tus amigos lo sepan

??? ? ? ???

Comparte