Facebook Dreams of Terabit Ethernet - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Facebook Dreams of Terabit Ethernet

Hola otra vez. Te escribe Simón Sánchez y hoy hablaremos sobre Facebook Dreams of Terabit Ethernet

El ingeniero de Facebook Donn Lee probablemente se sienta un poco como el jefe de policía de Amity, Martin Brody, en la primera película de Tiburón. Después de ver al monstruo tiburón por primera vez, Brody le dice al Capitán Quint con una expresión inexpresiva: «Necesitarás un bote más grande».

Sustituya la pregunta de las redes sociales por el tiburón y la red por el barco, y básicamente tendrá la historia de terror de Facebook. El icónico sitio de redes sociales está tratando de hacer frente a los requisitos de ancho de banda que se duplican cada año, ya que busca respaldar su base de usuarios de 300 millones (¡y en aumento!).

En un archivo artículo esta semana en Computerworld, Lee de Facebook explica el dilema de la compañía. Según él, sus aplicaciones ya requieren 100 Gigabit Ethernet y en un futuro no muy lejano necesitarán 1 Terabit Ethernet. Esto significa que un solo centro de datos de Facebook necesitará 64 tuberías de Terabit en la red troncal. Esto requeriría miles de puertos de 10 GbE y más de 100 de los conmutadores más grandes disponibles, lo que no es realmente factible. En pocas palabras, las redes sociales que consumen mucho ancho de banda están vinculadas a un ancla Ethernet.

De acuerdo, Facebook no es una aplicación HPC tradicional, pero seguro que se comporta como tal. Del artículo:

Facebook se diferencia de muchas empresas en que agrupa muchos servidores en una sola aplicación en lugar de dividir cada servidor en varias máquinas virtuales. Esto significa que se enfrenta a un desafío especial al trabajar juntos muchos servidores. Pero su desafío de ancho de banda tiene sus raíces en avances tecnológicos fundamentales. Todas las placas base de servidor tienen Gigabit Ethernet incorporado, y los procesadores multinúcleo actuales pueden llenar fácilmente esos conductos.

¿Suena familiar? Las aplicaciones HPC pueden aprovechar al menos 40 Gbps InfiniBand para la comunicación de servidor a servidor en la actualidad. Pero, en última instancia, todo tiene que pasar por una tubería Ethernet una vez que abandona la LAN (ignorando las pocas soluciones WAN basadas en InfiniBand).

En el ámbito de Ethernet, 10GbE es el tubo más gordo disponible en la actualidad, y estos productos están llegando al mercado en masa. La propuesta IEEE 802.3ba, que especifica 100 GbE para la red troncal WAN y 40 GbE para la comunicación de servidor a servidor, se ha abierto camino a través del proceso de estándares IEEE. Se espera que 802.3ba sea ratificado para fin de año y presumiblemente será seguido por ofertas de proveedores que lo respalden.

Desafortunadamente, no parece haber un final feliz para esta historia. Dado el ritmo lento de la industria de Ethernet, todo esto parece demasiado poco y demasiado tarde. Lee dice que la falta de ancho de banda limita la innovación en Facebook y, en última instancia, la experiencia del cliente. Por ahora, parece que la disparidad entre el ritmo de las redes sociales y la tecnología Ethernet seguirá aumentando.

Puedes compartir en una historia de tu Instagram para que tus amigos lo vean

??? ? ? ???

Comparte