El mito del conmutador de corte en las redes de centros de datos - Calendae | Informática, Electrónica, CMS, Ciberseguridad

El mito del conmutador de corte en las redes de centros de datos

Hola otra vez. Te escribe Simón Sánchez y en esta ocasión hablaremos sobre El mito del conmutador de corte en las redes de centros de datos

La conmutación de corte directo se menciona como un requisito para los conmutadores de centros de datos. Procedente de entornos de Computación de alto rendimiento (HPC), la conmutación directa tiene como objetivo minimizar las latencias de la red. En este artículo, analizamos el trasfondo del paso de acceso directo y examinamos la efectividad del esquema de acceso directo en redes típicas de centros de datos.

¿Qué es el intercambio directo?

El corte directo es un método de conmutación para sistemas de conmutación de paquetes, en el que el conmutador comienza a reenviar un paquete antes de que se haya recibido el paquete completo, normalmente, tan pronto como se procesa la dirección de destino. Esta técnica reduce la latencia en el conmutador. El corte directo se compara con la conmutación de almacenamiento y reenvío, que, como su nombre indica, requiere que se almacene todo el paquete antes de que comience su transmisión.

La conmutación de corte se ha vuelto popular en las redes InfiniBand, ya que a menudo se implementan en entornos simétricos como clústeres de supercomputadoras, donde la latencia puede ser un problema.

Ganancia de latencia para paquetes pequeños a medianos

El rendimiento de procesamiento general de un sistema HPC puede ser sensible a la baja latencia de los paquetes de control. Estos paquetes suelen ser cortos (utilizados para sincronización) y, por lo tanto, son el foco de interés para la conmutación de corte. Los paquetes largos son de menor importancia en esta discusión.

Al evaluar el rendimiento de la conmutación de corte frente a la conmutación de almacenamiento y reenvío para paquetes pequeños a medianos (hasta 256B / 512B), ambos métodos tienen aproximadamente el mismo rendimiento. Esto se debe a que incluso un conmutador de corte acumula / almacena bloques 64B-512B, según la microarquitectura, antes de reenviarlos al puerto de salida.

Por ejemplo, tenga en cuenta que los switches de la serie Nexus 5000 de Cisco tienen conmutación de corte y especifican una latencia mínima de 3.2us, que es equivalente a los switches modernos de almacenamiento y reenvío con paquetes de hasta 1 KB.

Corte entre puertos de diferentes velocidades

La conmutación de corte no funciona cuando se envía tráfico desde un puerto lento a un puerto más rápido. Sin embargo, este es un caso típico en el que los paquetes fluyen desde los servidores a través de los conmutadores de acceso al centro de datos (parte superior del bastidor o al final de la línea).

Evaluamos el tráfico de enlace ascendente en un conmutador de la parte superior del bastidor (TOR) que conecta hasta 40 servidores, cada uno conectado con un puerto de 10 Gigabit Ethernet (GbE). Los puertos de enlace ascendente que conectan los conmutadores TOR a un conmutador de núcleo / agregado son de 40 GbE, hasta 100 GbE.

El tráfico desde la conexión de servidor de 10 GbE más lenta hasta el puerto de enlace ascendente de 40 GbE / 100 GbE más rápido no admite el corte. El puerto de enlace ascendente envía el paquete más rápido que la velocidad a la que lo recibe el puerto más lento. La transmisión no puede comenzar antes de que el paquete se haya recibido por completo. De lo contrario, es posible que el puerto de enlace ascendente TX FIFO no funcione correctamente. Luego, los paquetes entre un puerto más lento y un puerto más rápido se almacenan y reenvían también a un conmutador con capacidad de corte.

Corte entre velocidades de puerto iguales

Es poco probable que haya un corte entre dos puertos de la misma velocidad.

Por definición, un paquete solo se puede cortar si el puerto de salida está vacío. Debido a que el tráfico de paquetes es pesado, algunos puertos infrautilizados que envían tráfico interrumpido al mismo puerto de salida experimentarán una congestión intermitente de los puertos de salida. Se puede demostrar que incluso las redes con baja utilización (solo unos pocos porcentajes) no podrían utilizar el corte directo en la mayoría de los casos y no permitirían establecer un límite determinista de baja latencia que supuestamente garantiza el cambio de corte. . Además, con las tecnologías de virtualización de servidores actuales, es poco probable que se infrautilice el puerto del servidor.

Finalmente, en la mayoría de los escenarios de uso, los paquetes entre algunos puertos de la misma velocidad también se almacenan y reenvían a conmutadores habilitados para cortar.

Resumen

El valor clave del cut-through es permitir una baja latencia para el tráfico transferido a través de la red del centro de datos. Tras examinarlo, parece que el corte directo no tiene un uso práctico en los conmutadores de centros de datos basados ​​en Ethernet. La nueva generación de conmutadores de almacenamiento y reenvío presenta latencias deterministas equivalentes para los paquetes pequeños a medianos que importan. Las latencias de los nuevos conmutadores de almacenamiento y reenvío no tienen ningún impacto en el rendimiento real de la aplicación en comparación con los conmutadores de corte.

La conmutación por corte no es gratuita. Los dispositivos que admiten el corte directo generalmente no admiten: (a) grandes búferes para tráfico TCP congestionado, (b) escalabilidad de la capacidad del sistema y (c) puertos de canal 40G y 100G libres en la estructura o, si lo hacen, retroceden a almacenar y reenviar.

Las redes típicas de centros de datos tienen varios niveles, lo que multiplica el retraso por el número de saltos. Esta es la razón por la que los proveedores de sistemas se centran en crear conmutadores grandes y estrictamente sin bloqueo. Si el conmutador no es estrictamente sin bloqueo (por ejemplo, conmutador basado en XAUI), la probabilidad de que un paquete se retrase innecesariamente se multiplica, no solo debido a la sobreuscripción intermitente a un puerto, sino también a una suscripción. artificial (por ejemplo, bloque). Como resultado, el impulso original para proporcionar conmutación de corte en realidad produce un aumento en el retraso y la latencia, lo que contradice el objetivo.

En conclusión, al construir un conmutador de centro de datos, es mucho más importante tener una arquitectura que proporcione latencia determinista en todas las condiciones de tráfico, configuraciones estrictamente sin bloqueo de 10 a 1,000 puertos, soporte de puertos efectivo de 40 GbE y 100 GbE, y búferes que garantizan un funcionamiento fiable de la red en condiciones reales de red.

No te olvides compartir en tu Facebook para que tus colegas opinen

??? ? ? ???

Comparte