Limitación de latencia de la nube

Hola de nuevo. Te habla Simón Sánchez y esta vez hablaremos sobre Limitación de latencia de la nube

Una de las principales razones del fenomenal interés en la computación en la nube hoy en día es que abstrae la complejidad tecnológica del usuario final. Puede acceder a servicios innovadores de gran ancho de banda y baja latencia desde la nube, sin preocuparse demasiado por los recursos de hardware o software implementados localmente.

Para los operadores de red detrás de la computación en la nube, por supuesto, las consideraciones tecnológicas no son poca cosa. Ya sea que se trate de diseñar una nube privada para que sea administrada por un personal de tecnología de la información (TI) empresarial para los usuarios de esa empresa o una nube pública para ser administrada por un proveedor de servicios administrados para clientes comerciales, una de las decisiones clave a tomar es cómo interconectar servidores y almacenamiento dentro y entre centros de datos y crear máquinas virtuales.

Hay numerosas opciones de tecnología disponibles para los administradores de TI y los planificadores de servicios que necesitan un transporte de gran ancho de banda y baja latencia para compartir recursos virtualizados en la nube. Las latencias de interconexión generalmente se han reconocido como un factor limitante para las aplicaciones informáticas de alto rendimiento dentro y entre los centros de la nube, pero han aparecido en el mercado numerosas innovaciones de protocolo para eliminar esta barrera.

Detrás del fervor

El modelo de computación de centro de datos tradicional ha presentado servidores de arquitectura x86 infrautilizados que ejecutan un sistema operativo completo o varios sistemas operativos a través de un hipervisor. Los enlaces de menor ancho de banda entre los recursos del servidor fueron suficientes, dada la pequeña cantidad de máquinas virtuales en uso.

Hoy, la industria avanza a toda velocidad hacia un modelo más dinámico. En la computación en nube, los servidores se utilizan y se agrupan principalmente para admitir muchas máquinas virtuales. Las implementaciones en la nube, donde los servicios basados ​​en software están desacoplados de servidores particulares y otros recursos de hardware, varían ampliamente.

Los motores de búsqueda de Internet y los sitios de redes sociales han utilizado durante mucho tiempo este enfoque de la computación en la nube. La tendencia se ha extendido a los servicios y aplicaciones comerciales tradicionales, como lo demuestra la aparición de Google Docs y Salesforce.com, por ejemplo. Ha surgido el servicio de nube de escritorio público, donde los usuarios finales acceden a aplicaciones y datos desde computadoras en red u otros dispositivos. También es probable que la informática de alto rendimiento aproveche la nube.

Los beneficios para la empresa son importantes. Debe haber reducciones en los gastos de capital y operativos (CAPEX y OPEX). El mayor uso de servidores de rango medio, almacenamiento y tejido de red convergente da como resultado una reducción de CAPEX. La gestión automatizada e integrada de la infraestructura del centro de datos de un extremo a otro reduce el OPEX.

Requisitos de interconexión

Algunas de las aplicaciones de computación en la nube, como la capacidad de escritorio emergente recientemente, pueden permitir latencias de 50 milisegundos o más. Otros, como en el procesamiento de alto rendimiento, requerirán una latencia extremadamente baja cercana a un milisegundo. Numerosos protocolos compiten por el rol de interconexión del centro de datos para estas aplicaciones más exigentes.

Las soluciones de recuperación ante desastres y continuidad del negocio basadas en Sysplex paralelo dispersos geográficamente (GDPS) de IBM, por ejemplo, se basan en InfiniBand de alta velocidad para la interconexión entre centros de datos remotos y enlaces al almacenamiento virtual.

Se requiere un puerto InfiniBand, que admite hasta 40 Gb / s de ancho de banda y un mínimo de 1 microsegundo de latencia, para aplicaciones sensibles a transacciones de alto rendimiento. (Además, InfiniBand reduce la sobrecarga de E / S introducida por la virtualización en la computación en la nube). Un puerto Ethernet, en comparación, ofrece 10 Gb / s de ancho de banda y 6 microsegundos de latencia TCP, aunque latencias de 40 a 50 microsegundos no son infrecuentes. Esto se debe a que las redes más grandes interconectadas a través de puertos Ethernet a veces requieren múltiples capas de conmutación jerárquica para compensar el impacto de una suscripción excesiva.

Cuando se trata de la interconexión a los recursos de almacenamiento dentro del centro de datos, el canal de fibra de 8 Gb / s es el protocolo dominante para las aplicaciones de grandes empresas, lo que permite una copia de seguridad y una recuperación rápidas cuando se transporta de forma nativa a través de la multiplexación por división de longitud de onda densa (DWDM). Tendrá que colocarse en la nube, donde los requisitos de almacenamiento son enormes.

La madurez de un protocolo es una consideración clave, ya que las tecnologías probadas serán imprescindibles para las aplicaciones de misión crítica, de gran ancho de banda y baja latencia que ahora son compatibles con máquinas virtuales agrupadas en clústeres. En el futuro previsible, es probable que las implementaciones comprobadas de cada uno de estos protocolos (InfiniBand, 8G Fibre Channel y alguna forma de Ethernet) tengan roles en la nube, porque los gerentes de TI de la empresa y los planificadores de servicios de los operadores son generalmente reacios a comprometerse su infraestructura en la nube a cada uno de ellos solo.

DWDM permite el transporte de alto rendimiento y baja latencia de cada uno de estos protocolos en su forma nativa a través de distancias de fibra de hasta 600 kilómetros. El operador de una red de computación en la nube no necesita asumir los costos y las complejidades de instalar pasarelas de extensión de canal. Además, el DWDM independiente del protocolo brinda a los operadores de redes de computación en la nube la flexibilidad de adoptar protocolos emergentes, como el prometedor Fibre Channel over Ethernet (FCoE), a medida que maduran.

Esperanzas de convergencia

En última instancia, es probable que el futuro centro de datos en la nube dependa de algún tipo de tejido convergente único con virtualización de servidores y almacenamiento. Esta visión, un protocolo flexible, confiable y de alto rendimiento que soporta de manera rentable todo el tráfico de almacenamiento y red de área local (LAN y SAN), se ha adoptado durante años en las redes empresariales, y los operadores de infraestructura de computación en la nube buscarán Reducir el costo del ancho de banda de la nube siempre que las características de rendimiento requeridas se puedan entregar de manera confiable.

Hay tecnologías en el horizonte que se promocionan para este papel de convergencia. Por ejemplo, el interés en varias formas de InfiniBand sobre Ethernet (IBoE) está creciendo, pero los estándares de la industria están muy lejos. FCoE también está interesado en mirar.

En su forma actual, FCoE ofrece una valiosa consolidación de E / S para blades de servidor en rack o unidades de rack único que ejecutan nuevos adaptadores de red convergente (CNA). Los conmutadores FCoE emergentes funcionan eficazmente como agregadores de primer nivel, distribuyendo el tráfico de datos a una infraestructura LAN o SAN heredada. Las características de rendimiento prometidas por esta tecnología (baja latencia y ancho de banda de 10 a 40 Gb / s) son intrigantes.

Sin embargo, el entusiasmo por FCoE entre los operadores de infraestructura de computación en la nube se ve mitigado por varios factores. En primer lugar, el protocolo está lejos de ser probado en el tipo de implementación exigente a gran escala típica del procesamiento de alto rendimiento. En segundo lugar, hay más problemas con FCoE en relación con la distancia:

  • Aún no existen estándares que definan la implementación de enlaces entre conmutadores (ISL) entre conmutadores FCoE dispersos geográficamente.
  • La compatibilidad con varios saltos todavía está disponible.
  • No se ha probado la capacidad de vincular tecnología de forma nativa a más de 100 kilómetros o más.
  • Muy pocos proveedores de almacenamiento ofrecen interfaces FCoE nativas.

Hasta que se realicen estas mejoras, FCoE desempeñará un papel limitado en la nube.

Conclusiones

Si bien existe un claro deseo de que todo el tráfico empresarial converja eventualmente en una única estructura unificadora, el entorno de computación en la nube del mundo real basado en servidores de alta gama debe continuar admitiendo una gama de estructuras multiprotocolo existentes optimizadas para un rango de tareas. InfiniBand, por ejemplo, proporciona el ancho de banda extremadamente alto y la latencia extremadamente baja requeridos por la gama más exigente de aplicaciones en la nube, como las que se encuentran en la informática de alto rendimiento.

Los gerentes corporativos de TI y los planificadores de servicios de los operadores deben seguir siendo expertos en combinar tecnologías con aplicaciones para cumplir con los requisitos técnicos y los objetivos comerciales de una manera más rentable. Es probable que InfiniBand, 8G Fibre Channel, las versiones de Ethernet y otros protocolos como iSCSI desempeñen un papel importante en las redes empresariales durante los próximos años, y los operadores de red que introducen la computación en la nube deben planificar en consecuencia. Los proveedores de servicios de nube pública, por ejemplo, deberían considerar los beneficios potenciales del almacenamiento de conexión directa en la nube como una alternativa a la implementación y administración de una gran cantidad de puertas de enlace FC-IP.

El otro problema con las puertas de enlace FC / IP es el hecho de que el rendimiento del almacenamiento se ve comprometido si, por ejemplo, un flujo de canal de fibra 2G se comprime a través de Gigabit Ethernet u OC-48 cuando el canal de fibra emergente 4G, 8G, 10G y 16G son opciones disponibles en las mismas distancias.

DWDM le permite implementar y administrar comúnmente la gama completa de protocolos en las redes ópticas existentes. Al permitir que cada uno de los protocolos de interconexión funcione sin problemas a la velocidad del cable, sin introducir latencia adicional, WDM está bien posicionado para proporcionar la función unificadora que los operadores de red necesitan al implementar servicios de computación en la nube.

Acerca de

El Dr. Casimer DeCusatis es un ingeniero distinguido de IBM con sede en Poughkeepsie, Nueva York, donde actualmente es ingeniero jefe de la alianza IBM / Juniper y arquitecto de soluciones de E / S y redes, incluida la conectividad de distancia extendida. Es un inventor maestro de IBM con más de 85 patentes y ha recibido numerosos premios de la industria, incluido el premio IEEE Kiyo Tomiyasu, el premio al Innovador del año de EDN, el premio Copper Black de la Mensa Research Foundation por logros creativos y el premio IEEE / HKN Outstanding Young Ingeniero eléctrico (que incluye una cita del presidente de los Estados Unidos y una bandera estadounidense ondeada en su honor en el Capitolio de los Estados Unidos). Eco-

Todd Bundy es director de empresa de gestión de alianzas globales con Red óptica ADVA. Tiene 26 años de experiencia en redes de almacenamiento, es un experto reconocido en redes SAN y ópticas, y se especializa en aplicaciones de almacenamiento en varios tipos de redes para cumplir con los planes de contingencia empresarial. El Sr. Bundy ha participado en muchos proyectos exitosos de recuperación ante desastres y consolidación de centros de datos a gran escala con empresas como IBM, utilizando WDM ADVA Optical Networking FSP (plataforma de servicios de fibra).

Puedes compartir en tu Facebook para que tus amigos lo lean

??? ? ? ???

Comparte