Un protocolo Ethernet para InfiniBand - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Un protocolo Ethernet para InfiniBand

Hola de nuevo. Yo soy Simón Sánchez y en esta ocasión vamos a hablar sobre Un protocolo Ethernet para InfiniBand

Es inevitable que Ethernet sin pérdidas se conecte al centro de datos. Con el próximo estándar Converged Enhanced Ethernet (CEE), llamado Data Center Bridging (DCB) por IEEE y Data Center Ethernet (DCE) por Cisco, pronto estarán disponibles equipos de red y software de apoyo para permitir que todas las aplicaciones se ejecuten en un cable unificado.

El problema es que estará basado en Ethernet, por lo que el rendimiento se limitará inicialmente a un rendimiento de 10 gigabit / segundo y latencias de varios microsegundos. InfiniBand, por supuesto, ya ofrece un rendimiento mucho mejor, por lo que sigue ampliando su presencia en el mercado de HPC. Pero a medida que la tecnología detrás de Ethernet sin pérdidas se está volviendo similar a InfiniBand, proveedores como Voltaire y Mellanox están utilizando la convergencia como una oportunidad para ingresar al campo de Ethernet. «No somos tan ingenuos como para pensar que todo el mundo se convertirá a InfiniBand», dice John Monson, vicepresidente de marketing de Mellanox, quien se unió a la compañía en marzo.

Voltaire ha anunciado su intención de construir conmutadores de centro de datos de 10 GigE, que la compañía planea implementar a finales de este año. Mientras tanto, en la Interop de Las Vegas, Mellanox demostró una serie de tecnologías centradas en Ethernet, incluida una capacidad RDMA sobre Ethernet (RDMAoE) en los adaptadores ConnectX EN de la empresa.

RDMAoE no es el Protocolo RDMA de área amplia de Internet (iWARP), que actualmente es el único estándar Ethernet basado en RDMA que tiene seguidores con proveedores de NIC como Chelsio Communications y NetEffect (ahora parte de Intel). Mellanox nunca se subió al tren de iWARP, argumentando que el modelo de descarga TCP de la tecnología hace que el diseño sea demasiado complejo y costoso para atraer un soporte generalizado, y que escalar iWARP a 40 gigabits por segundo (el próximo aumento de velocidad de Ethernet centro de datos) sería problemático. Pero mas importante, por una variedad de razones, el soporte de Linux para la descarga de TCP nunca se materializó.

«Creemos que ya existe un mecanismo de transporte RDMA que ha sido probado y utilizado en gran medida en la industria», dice Monson. «Se llama InfiniBand». Según él, también podría usar una funcionalidad similar dentro de una envoltura de Ethernet si su objetivo es 10 GigE con comunicación sin pérdidas. Mellanox llama a su prototipo de implementación RDMAoE Low Latency Ethernet (LLE), pero para todos los efectos es InfiniBand sobre Ethernet.

Utilizando el mismo modelo sin TCP de Fibre Channel over Ethernet (FCoE), RDMAoE reemplaza el transporte TCP de iWARP con una capa de transporte específica de RDMA mucho más pequeña. La eliminación de la engorrosa pila de TCP elimina el cambio de contexto de transporte y reduce la sobrecarga de procesamiento de paquetes. Además, dado que el Data Center Bridging de IEEE admitirá la gestión de la congestión, tiene menos sentido implementar una capa de transporte TCP para LAN y SAN en un mundo posterior a DCB. Se pierde la capacidad de admitir TCP en una infraestructura convergente, pero todavía no era la razón fundamental detrás de un centro de datos Ethernet sin pérdidas.

En Interop, Mellanox está demostrando latencias de puerto a puerto tan bajas como 3 microsegundos para una implementación RDMAoE que se ejecuta en sus adaptadores ConnectX 10 GigE. No es tan bueno como la latencia de 1 microsegundo que se puede lograr con InfiniBand, pero es mucho mejor que iWARP en 8-10 microsegundos. El rendimiento también ha mejorado significativamente, especialmente con mensajes más pequeños. RDMAoE puede alcanzar una velocidad de línea de 10 gigabits con cargas útiles de hasta 512 bytes; con iWARP, ese nivel de rendimiento requiere tamaños de mensaje de 64 KB o más. Dado que no se requiere la descarga de TCP, la eficiencia energética también se mejora significativamente.

El espacio de la aplicación para RDMAoE es aproximadamente el mismo que en iWARP: cargas de trabajo de transacciones de E / S altas en la empresa y aplicaciones HPC que pueden funcionar con un rendimiento de nivel inferior que InfiniBand. Sería especialmente útil en los centros de datos de Wall Street, donde las transacciones de acciones deben realizarse en tiempos de menos de milisegundos. Además, con el advenimiento de las unidades de estado sólido (SSD) en la empresa, las aplicaciones que pueden beneficiarse de altas cargas de trabajo de IOPS se están generalizando cada vez más.

Según Monson, están viendo niveles muy altos de interés en RDMAoE por parte de los usuarios finales y los OEM y los estándares están siendo considerados por uno o más grupos de la industria, aunque se negó a decir cuáles. Los sospechosos más probables son IEEE, la Asociación de Comercio InfiniBand (IBTA) y el Grupo de Trabajo de Ingeniería de Internet (ITEF). Conseguir que estos organismos de estandarización trabajen juntos será complicado, ya que responden a diferentes consistencias y funcionan a diferentes velocidades. En la práctica, sin embargo, obtener un estándar no debería ser demasiado difícil. De acuerdo a un presentación reciente (PDF) de System Fabric Works en el último taller de Open Fabrics en marzo, RDMA sobre Ethernet no implicaría cambiar el DCB emergente, ni tampoco sería difícil para IBTA extender InfiniBand para trabajar en DCB.

Si RDMAoE logra superar a iWARP como la Ethernet de baja latencia preferida para LAN y SAN, acerca las estructuras convergentes un paso más hacia la forma en que InfiniBand hace negocios. Para Mellanox, en particular, será una validación de la estrategia a largo plazo de la compañía para utilizar un modelo de interconexión virtual para admitir un tejido multiprotocolo para la nube y otros centros de datos con cargas de trabajo heterogéneas. La historia podría estar del lado de Mellanox. Con la computación y el almacenamiento convirtiéndose en recursos virtuales en el centro de datos, las redes seguramente seguirán.

Deberías compartir en una historia de tu Instagram para que tus amigos lo disfruten

??? ? ? ???

Comparte