Berkeley publica un estudio sobre computación en la nube - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Berkeley publica un estudio sobre computación en la nube

Hola, ¿qué tal colega?. En el teclado Simón Sánchez y esta vez hablaremos sobre Berkeley publica un estudio sobre computación en la nube

Los investigadores de la Laboratorio confiable de sistemas distribuidos adaptativos (RAD Lab) de UC Berkeley han publicado un informe técnico de 23 páginas, Sobre las nubes [PDF], que proporciona un análisis en profundidad del modelo emergente de computación en la nube. El artículo es uno de los primeros tratados académicos sobre el tema que ofrece un perfil crítico del panorama actual de la computación en nube.

Le preguntamos a dos de los periódicos

Calendae: La computación en la nube se ha convertido en sinónimo de una variedad de cosas. Para el propósito de nuestra discusión aquí, ¿cómo lo definiría?

David Patterson: La computación en la nube se refiere tanto a las aplicaciones proporcionadas como servicios en Internet como al hardware y software del sistema en los centros de datos que brindan dichos servicios. Los servicios en sí se conocen desde hace mucho tiempo como software como servicio (SaaS). El hardware y software del centro de datos es lo que llamaremos la nube. Cuando una nube está disponible para el pago por uso público, la llamamos «nube pública»; el servicio vendido es la informática de utilidad. Usamos el término «nube privada» para referirnos a los centros de datos internos de una empresa u otra organización que no están disponibles para el público en general. Por lo tanto, la computación en la nube es la suma de SaaS y la computación de servicios públicos, pero no incluye las nubes privadas.

No usamos términos como «X como servicio» (XaaS); Los valores de X que hemos visto incluyen infraestructura, hardware y plataforma, pero no hemos podido ponernos de acuerdo, ni siquiera entre nosotros, cuáles podrían ser las diferencias precisas entre ellos.

Armando Fox: El ingrediente clave es tener enormes recursos de TI disponibles sin necesidad de acuerdos anticipados y facturación de pago por uso. Particularmente relevante es el hecho de que una vez que libera recursos no utilizados, ya no tiene que pagar por ellos. Esta propiedad de «elasticidad» traslada muchos riesgos de los usuarios de ese equipo al proveedor del equipo, creando nuevos modelos económicos que pueden cambiar la forma en que las nuevas empresas, los investigadores e incluso las empresas establecidas piensan sobre el gasto en TI.

Calendae: La computación en la nube es probablemente el mayor cambio de paradigma en TI desde la PC. Si bien conceptos similares como la informática de servicios públicos y la informática en red existen desde hace algún tiempo, nunca han logrado un éxito comercial generalizado. ¿Qué componentes tecnológicos se han reunido para hacer viable la computación en la nube en la actualidad?

Zorro: Si bien existen muchos factores técnicos, creemos que el más importante es la existencia de centros de datos extremadamente grandes construidos a partir de decenas de miles de computadoras comunes. También resulta que existen ventajas de costo de un factor de cinco a siete al capitalizar un centro de datos en esta escala en comparación con, digamos, un centro de datos empresarial de tamaño mediano con cientos de computadoras. Y el enorme crecimiento de Internet ha llevado a empresas como Google, Amazon, eBay y otras a construir dichos centros de datos, desarrollar software de infraestructura para ellos, como Google File System o Amazon Dynamo, y desarrollar experiencia operativa para protegerlos contra entorno hostil de la Internet pública.

Patterson: Estos avances técnicos han ido acompañados de un modelo de negocio que ofrece tres características clave: 1) la ilusión de infinitos recursos informáticos disponibles bajo demanda; 2) Eliminación de un compromiso inicial de los usuarios de la nube, lo que permite a las empresas comenzar con algo pequeño; y 3) La capacidad de pagar por el uso de recursos de procesamiento a corto plazo según sea necesario y liberarlos cuando no se necesiten. Los esfuerzos anteriores en la informática de servicios públicos han fracasado porque faltaban una o dos de estas tres características críticas. Por ejemplo, Intel Computing Services en 2000-2001 requirió negociación de contrato y uso a más largo plazo que la hora.

Desafortunadamente, la computación en red creó protocolos que ofrecían computación y almacenamiento compartidos a largas distancias y no condujeron a un entorno de software que creciera más allá de la comunidad HPC.

Calendae: Hay algunas personas prominentes en la industria como Richard Stallman, citado en el documento, que describen los servicios en la nube como una exageración de marketing y que temen volverse dependientes de la nube y los proveedores de servicios. ¿Es solo resistencia a los nuevos paradigmas o personas como Stallman tienen un punto válido?

Zorro: Si bien creemos que la computación en la nube es mucho más que un simple «despliegue publicitario», estamos de acuerdo en que la incertidumbre de tener sus datos y aplicaciones «atascados en la nube» puede ser una barrera potencial para la adopción de la nube. Como se describe en el documento, las ofertas en la nube pueden diferir en el nivel de administración y funcionalidad que se ofrecen en la nube. Por ejemplo, la oferta de Amazon se basa en gran medida en el atractivo de un sólido ecosistema de software de código abierto y proporciona relativamente poca funcionalidad «incorporada»; mientras que Microsoft Azure permite que las aplicaciones distribuidas se ejecuten en un entorno .NET administrado y utilicen el marco y las bibliotecas de .NET, lo que dificulta el traslado de esas aplicaciones (y potencialmente los datos que administran) a otro proveedor de nube que puede que no ofrezca .NET.

Patterson: Creemos que existe un peligro potencial para la continuidad del negocio si depende de un solo proveedor de computación en la nube. Argumentamos que tales preocupaciones pueden abordarse estandarizando las API para que varios proveedores puedan ofrecer el mismo servicio, de modo que los usuarios de la computación en la nube puedan mover su aplicación si un proveedor ofrece un servicio deficiente o cierra el negocio.

El temor obvio es que esto conduciría a una «carrera hacia el fondo» y aplastaría las ganancias de los proveedores de computación en la nube. Ofrecemos dos argumentos para disipar este miedo. Primero, la calidad de un servicio es tan importante como el precio, por lo que los clientes no necesariamente cambiarán al servicio de menor costo. Algunos proveedores de servicios de Internet cuestan hoy diez veces más que otros porque son más confiables y ofrecen servicios adicionales para mejorar la usabilidad. En segundo lugar, la estandarización de API permite un nuevo modelo de uso en el que se puede usar la misma infraestructura de software en un centro de datos local y en una nube pública. Esta opción podría habilitar la «computación de sobretensión», donde la nube pública se utiliza para capturar tareas adicionales que no se pueden realizar fácilmente en el centro de datos (o nube privada) debido a cargas de trabajo pesadas temporalmente. Creemos que la computación de aumento podría expandir significativamente el tamaño del mercado de la computación en la nube.

Calendae: El documento enumera diez obstáculos para la computación en nube. ¿Puede nombrar uno o dos que parezcan los más importantes en general, y también para la informática de alto rendimiento en particular?

Zorro: Fue realmente difícil clasificarlos, e incluso el orden en el periódico es solo un orden parcial. Pero todos estuvimos de acuerdo en que la computación en la nube necesita API estandarizadas que funcionen en todos los proveedores de la nube. Esto ayudaría a abordar DOS obstáculos, a saber, mantener una alta disponibilidad y evitar el bloqueo de datos. En cuanto a los obstáculos técnicos, hemos observado que, al igual que en el pasado, el costo del ancho de banda de la red de larga distancia está disminuyendo más lentamente que todos los demás costos de hardware, por lo que nos gustaría ver nuevas formas en que los proveedores de la nube podrían abordar este alto costo de transferencia de datos, por ejemplo, permitiendo a los clientes de FedEx una caja de discos directamente en el centro de datos en la nube.

Para HPC, creemos que alguna infraestructura de software básica, como la planificación grupal para las nubes, sería de gran ayuda; pero, en general, la comunidad HPC no tuvo que pasar por el proceso de rediseño de software que atravesó la comunidad web en la década de 1990. Creemos que hay muchas oportunidades para la innovación si HPC avanza, y una demostración temprana sería de gran ayuda para comenzar esa área. Estamos discutiendo algunas posibilidades en el Berkeley Par Lab, justo arriba del RAD Lab.

Calendae: el documento también describe algunas oportunidades de aplicaciones nuevas. ¿Puede describirlos y explicar por qué son especialmente adecuados para la computación en nube?

Zorro: Una nueva área importante permite que las aplicaciones de escritorio se extiendan sin problemas a la nube; por ejemplo, el popular software de análisis MATLAB y Mathematica ahora lo admite. Además, debido a la «asociatividad de costos» de la nube (usar 1,000 computadoras por una hora es el mismo precio que una computadora por 1,000 horas) es ideal para aplicaciones que se paralelizan bien, como convertir documentos. , renderizar fotos o videos, etc. Obviamente, debido al costo relativamente alto de la transferencia de datos, la clave son las aplicaciones para las que se puede realizar una gran cantidad de cálculos en cada byte transferido a la nube, una observación realizada por Jim Gray en 2003, y cuya latencia la transferencia de esos datos es pequeña en comparación con el tiempo que los datos permanecerán «útiles» en la nube.

También vemos que la nube admite la computación de sobretensiones, donde un centro de datos privado puede expandirse temporalmente a una nube pública para soportar picos inesperados en la carga de trabajo.

Calendae: ¿Dónde cree que encajará la computación en la nube en el espacio de aplicaciones de HPC?

Patterson: Si se abordan problemas técnicos como la programación grupal de máquinas virtuales y un mayor ancho de banda de red dentro del centro de datos, creemos que a muchos usuarios de aplicaciones HPC les gustaría aprovechar la nueva asociatividad de costos en la nube, sin costo adicional de uso. 20 veces más computadoras para obtener sus resultados en 1/20 del tiempo. Estamos condicionados a comprar un conjunto de computadoras y luego tratar de mantenerlas ocupadas de manera uniforme. Esta elasticidad de recursos, sin pagar una prima por la gran escala, no tiene precedentes, por lo que las personas inteligentes necesitarán algún tiempo para aprovechar esta oportunidad.

Cuando los usuarios de HPC no tienen que pagar el costo de funcionamiento de sus computadoras (alguien más paga el espacio del edificio, la electricidad, el aire acondicionado, etc.) pueden concluir que, en promedio, pueden hacer su trabajo por menos de computación comercial en la nube, pero parece más una mala contabilidad que una buena ciencia.

Calendae: ¿Cómo es necesario crear hardware y software futuros para aprovechar el modelo de nube?

Zorro: Para el software, un enfoque clave se centra en la escalabilidad horizontal: la capacidad de acomodar a más usuarios agregando más servidores. A nivel de sistemas de almacenamiento y bases de datos, esto sigue siendo difícil de alcanzar, como lo demuestran varias ofertas como MegaStore de Google AppEngine, S3 y SimpleDB de Amazon, y otros servicios de almacenamiento escalables. Además, aprovechar la elasticidad significa que el software debe poder adaptarse automáticamente a cambios inesperados en la carga de trabajo, fallas de la máquina y, en última instancia, incluso a interrupciones en todo el centro de datos. En cuanto al espectro de las nubes hoy en día, Amazon no proporciona ningún servicio integrado como este (aunque terceros como RightScale están tomando medidas para llenar este vacío) pero permite al desarrollador diseñar lo que quiera; mientras que Google AppEngine limita severamente la arquitectura de software de su aplicación, pero a cambio obtiene gran parte de esa administración automatizada de forma gratuita.

Patterson: Los sistemas de hardware deben diseñarse a la escala de un contenedor (al menos una docena de racks), que será el tamaño mínimo de compra. El costo operativo coincidirá con el rendimiento y el costo de compra en términos de importancia, recompensando la proporcionalidad de la energía, que coloca las partes inactivas de la memoria, el disco y la red en modo de bajo consumo. Los procesadores deberían funcionar bien con máquinas virtuales; la memoria flash debe agregarse a la jerarquía de memoria; y los conmutadores LAN y los enrutadores WAN deben mejorar en términos de ancho de banda y costo.

—–

Para obtener más información sobre la investigación de la computación en la nube de Berkeley, visite Sitio web Above the Clouds.

Recuerda compartir en una historia de tu Instagram para que tus colegas lo flipen

??? ? ? ???

Comparte