El cuello de botella del ancho de banda - Calendae | Informática, Electrónica, CMS, Ciberseguridad

El cuello de botella del ancho de banda

Hola de nuevo. Te habla Simón Sánchez y en esta ocasión vamos a hablar sobre El cuello de botella del ancho de banda

La semana pasada, HPC en la nube discutido qué tipos de aplicaciones de HPC son las más adecuadas para las tecnologías en la nube. Si bien las capacidades ofrecidas por los proveedores de servicios en la nube (costos iniciales mínimos, alta escalabilidad y tiempos de implementación rápidos) siguen siendo atractivos para los usuarios de HPC, las demandas de sus cargas de trabajo a veces están en desacuerdo con la tecnología. Un obstáculo particular es la cantidad de ancho de banda entre el usuario final y el proveedor de su elección. A principios de esta semana, un sitio de scalability.org Blog cubrió este dilema, llamándolo un problema «no trivial».

La mayoría de los proveedores de nube pública son más adecuados para alojamiento web, servicios de correo electrónico y negocios en curso similares. Sus infraestructuras están orientadas a estos fines, aumentando la capacidad en relación con la demanda de los usuarios finales. Sin embargo, si un solo usuario desea almacenar y procesar grandes conjuntos de datos, la falta de conectividad de gran ancho de banda puede obstaculizar seriamente su búsqueda.

La NASA está familiarizada con este problema. La agencia lanzó recientemente un programa llamado NEX, que alberga 40 años de datos satelitales terrestres en un clúster de almacenamiento junto a su supercomputadora Pléyades. Ramakrishna Nemani, científico de la Tierra en NASA AMES, nos contó sobre el proyecto. Describió cuánto tiempo se tardó en migrar una gran colección de imágenes Landsat desde un centro de datos en Dakota del Sur a la instalación de AMES.

“Les daré un ejemplo de lo difícil que fue. Trajimos alrededor de 400 terabytes de datos del centro de datos EROS en Sioux Falls, Dakota del Sur. Me asombró, tardaron casi 6 meses y medio ”.

Con un tiempo de respuesta así, probablemente habría sido más fácil enviar el conjunto de datos a un conjunto de discos duros a través de FedEx. El blog de escalabilidad atribuye este tipo de problema a la falta de competencia entre los ISP de EE. UU.

Evaluaron una conexión asimétrica que ofrece 100 Mbit / s menos y 10-15 Mbit / s aumentando a alrededor de $ 300 / mes. Esto se traduce en 12,5 MByte / s menos y 1,25 MB más.

Dado este rendimiento, un usuario final podría descargar alrededor de un terabyte por día. Pero dado que la carga se transfiere a una velocidad de descarga del 10 por ciento, se necesitarían aproximadamente 10 días para cargar un solo terabyte.

Si bien es posible que los proveedores de servicios estándar no puedan igualar la productividad con la demanda, pueden recibir más incentivos de Google. El gigante de las búsquedas en Internet decidió lanzarse a la mezcla lanzando su propio servicio de fibra en Kansas City. Por $ 70 por mes, los usuarios pueden obtener conectividad simétrica de 1,000 Mbit / s (1 Gb / s). Con este rendimiento, la carga de 10 días / TB se convierte en una transferencia de dos horas más práctica.

Al eliminar eficazmente el cuello de botella del ancho de banda, los usuarios finales tienen la capacidad de implementar una nueva gama de servicios basados ​​en la nube. Esto incluye almacenamiento de alta capacidad y búsqueda intensiva de datos. Desafortunadamente, el servicio de Google se limita a Kansas City y no se han anunciado planes para expandir el programa.

Recuerda compartir en una historia de tu Instagram para que tus amigos lo disfruten

??? ? ? ???

Comparte