Batalla de los tejidos de red - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Batalla de los tejidos de red

Hola de nuevo. Te escribe Simón Sánchez y esta vez hablaremos sobre Batalla de los tejidos de red

En los últimos años, la penetración de InfiniBand en el mercado de HPC se ha consolidado. El alto ancho de banda y la conectividad de baja latencia de InfiniBand han fomentado su uso donde el rendimiento o el precio / rendimiento son los factores impulsores, como los clústeres de HPC y las supercomputadoras. En el centro de datos comercial, donde la conectividad LAN / WAN sobre TCP / IP sigue siendo importante, Ethernet sigue siendo el rey. Y para la conectividad de almacenamiento, Fibre Channel se ha convertido en un marco establecido. La mayoría de los OEM de primer nivel, incluidos IBM, HP, Sun y Dell, que ofrecen sistemas en una variedad de mercados, ofrecen conectividad a todos los tejidos.

Con el soporte de InfiniBand e iWARP (10 Gigabit Ethernet implementado como RDMA sobre TCP) de OpenFabrics Alliance, ahora hay pilas de software que tienen protocolos abiertos y estándares de interconexión para clústeres de HPC, centros de datos y sistemas de almacenamiento. Pero la convergencia todavía parece lejana. InfiniBand e iWARP se basan en arquitecturas fundamentalmente diferentes, que representan dos enfoques para la conectividad de alto rendimiento.

Esto no quiere decir que Ethernet e InfiniBand no se puedan combinar. Con su tecnología multiprotocolo ConnectX recientemente anunciada, Mellanox admitirá tejidos InfiniBand y Ethernet con un solo adaptador. Esto permitirá a los OEM de servidores y almacenamiento desarrollar sistemas que admitan ambas interconexiones con una sola pieza de hardware. Con este movimiento, Mellanox parece estar admitiendo hasta el punto de que 10GbE será la interconexión elegida para una clase importante de sistemas: el clúster comercial de escala media.

Con ConnectX, cada puerto se puede configurar como InfiniBand 4X o 1 o 10 Gigabit Ethernet, según las preferencias del OEM. El puerto InfiniBand admite velocidades de datos simples, dobles y cuádruples (SDR, DDR y QDR) que proporcionan un ancho de banda dúplex completo de 10, 20 y 40 Gbps. Las interfaces de aplicación, compatibles con ambos tejidos, incluyen IP, socket, MPI, SCSI, iSCSI, Fibre Channel (solo InfiniBand).

Se espera la disponibilidad de los primeros adaptadores Mellanox ConnectX en el primer trimestre de 2007. Estos incluirán una oferta multiprotocolo y solo InfiniBand (10 y 20 Gbps). También se espera que se entregue un adaptador InfiniBand ConnectX de 40 Gbps cuando los conmutadores coincidentes estén disponibles, probablemente en 2008.

La arquitectura multiprotocolo permitirá la compatibilidad con software basado en redes Ethernet heredadas y pilas de almacenamiento de OpenFabrics o pila de software RDMA. Además, el software del sistema que se transfirió a InfiniBand RDMA ahora se puede extender a entornos Ethernet, brindando algunos de los beneficios de InfiniBand a las aplicaciones Ethernet.

«Todas las soluciones de software compatibles con RDMA que se han probado en InfiniBand ahora también pueden ejecutarse en una estructura Ethernet», dijo Thad Omura, vicepresidente de marketing de productos de Mellanox Technologies. “Esto no es iWARP, implementado en pilas de TCP / IP heredadas. Lo que estamos haciendo es aprovechar las pilas InfiniBand RDMA existentes a través de Ethernet. «

La decisión de Mellanox de no apoyar iWARP se basó en un par de factores. Omura cree que la solución de múltiples chips requerida para la descarga de TCP de iWARP hace que el diseño sea demasiado complejo y costoso para atraer un soporte generalizado. Además, la escalabilidad de la tecnología sigue siendo una cuestión. Omura dice que el silicio iWARP debería rediseñarse para lograr 40 o 100 Gbps de rendimiento de ancho de banda.

Por el contrario, la InfiniBand ya está diseñada para admitir un rendimiento de 40 Gbps con una latencia de 1 microsegundo y puede hacerlo en un solo chip. Más allá de eso, hay un camino claro hacia InfiniBand de 120 Gbps en los próximos años. Pero, según Omura, en entornos de centros de datos comerciales, la conectividad a Ethernet (desde una perspectiva LAN / WAN) suele ser más importante que el rendimiento o el costo.

«Mellanox cree que InfiniBand siempre proporcionará la mejor relación precio / rendimiento para la conectividad de servidor y almacenamiento», dice Omura. “Al mismo tiempo, vemos que en las soluciones empresariales, 10 Gigabit Ethernet surgirá de tipos de aplicaciones de escala media y baja en un entorno de agrupación. Nuestra experiencia en conectividad de alto rendimiento servirá a ambos mercados. «

Si bien Mellanox ha implementado iWARP como una solución Ethernet, otros lo están adoptando. Hasta ahora, NetEffect es el único proveedor que admite la implementación completa con su adaptador iWARP. Pero es probable que la atracción de una solución Ethernet estandarizada habilitada para RDMA también atraiga a otras empresas. Como le gusta decir a Rick Maule, CEO de NetEffect, «iWARP ha llegado».

Maule cree que el mundo acepta más o menos que Ethernet es el tejido de facto de la red. Y para los dispositivos de almacenamiento, ya no existe una gran disparidad de rendimiento entre Fibre Channel y Ethernet. Según él, en el sector del almacenamiento, determinar qué tejido es preferible ahora es más una cuestión de economía.

«Lo que nadie ha podido probar es que Ethernet realmente puede construir estructuras de clúster a la par con Myrinet o InfiniBand o lo que sea, hasta ahora», dice Maule. Según él, «Ethernet ahora puede ser una verdadera estructura de clústeres sin excusas».

InfiniBand tenía una ventaja inicial con 10 Gbps, rendimiento de baja latencia. Pero ahora que ha llegado el iWARP de 10GbE, Maule cree que es una alternativa convincente. Con la tecnología RDMA, Ethernet se ha vuelto competitiva con InfiniBand y Myrinet en términos de rendimiento de ancho de banda y latencia.

Maule espera que la adopción de iWARP como una interconexión de clúster impulse una adopción más amplia de 10GbE en el centro de datos. Aunque la agrupación en clústeres, las redes y las estructuras de almacenamiento han evolucionado por separado en el pasado, cree que una solución Ethernet de alto rendimiento comenzará a convergerlas en 2007.

La adopción de iWARP en el área de almacenamiento eliminará la agrupación en clústeres, pero el requisito de un ancho de banda de 10 Gbps comenzará a ejercer presión sobre el almacenamiento basado en canal de fibra. Maule cree que en algún momento, pronto, el mercado de almacenamiento tendrá que elegir entre adoptar 10GbE o cambiar a 8Gbps Fibre Channel. Para el segmento de red, el aumento de los requisitos de ancho de banda agregado y la consolidación de servidores alentarán a más servidores a utilizar 10GbE. Maule cree que agregar iWARP al centro de datos en una de estas tres áreas se convierte en una puerta de entrada para evaluar la tecnología para una adopción más amplia en las otras dos áreas.

Las apuestas son altas. Maule estima que cada año se envían alrededor de 20 millones de puertos Gigabit Ethernet. Él ve cada uno como una oportunidad para pasar de GbE a 10 GbE. Su predicción es que en los próximos tres a cinco años se convertirán en puertas iWARP, no puertas InfiniBand.

Sin embargo, Maule admite que InfiniBand es tecnológicamente sólido. Él debería saberlo. NetEffect en realidad comenzó como Banderacom Inc., una empresa fundada en 1999 para desarrollar el silicio InfiniBand. Pero Banderacom se sintió insatisfecho con la tecnología cuando InfiniBand no logró imponerse como un nuevo estándar de tejidos. La empresa fue reestructurada (y renombrada) para desarrollar chips basados ​​en el estándar emergente iWARP Ethernet.

Como mucha gente, Maule piensa que si la industria hubiera podido adoptar InfiniBand fácilmente, ya lo habría hecho en mucha mayor medida. Él cree que dado que los gerentes de TI ya tienen una gran inversión en tecnología Ethernet (en capacitación de personal, software y hardware), buscarán el camino de menor resistencia para mejorar el rendimiento de la red. Por esta razón, apuesta a que InfiniBand no será el juego de volumen en el mercado de las interconexiones.

«Hicimos InfiniBand en una etapa anterior de nuestra vida», dijo Maule, refiriéndose a la aventura de Banderacom. “El reconocimiento que hemos ganado es que no es un problema tecnológico; es un ecosistema y un problema económico. Básicamente, el mercado ha estado esperando que Ethernet actúe en conjunto y pase al siguiente nivel «.

Recuerda compartir en tu Facebook para que tus colegas lo disfruten

??? ? ? ???

Comparte