La conexión Grid-Cloud (Pt. I): comparación y contraste - Calendae | Informática, Electrónica, CMS, Ciberseguridad

La conexión Grid-Cloud (Pt. I): comparación y contraste

Hola otra vez. Te escribe Simón Sánchez y en esta ocasión te voy a contar sobre La conexión Grid-Cloud (Pt. I): comparación y contraste

Computación en cuadrícula. Computación en la nube. ¿Hay paradigmas de TI que hayan generado más publicidad y más escepticismo sin que la mayoría de la gente sepa siquiera lo que significan? Probablemente no, pero tal vez sea porque los términos en sí mismos no tienen un significado real para la mayoría de los consumidores de TI, solo connotaciones.

Y las connotaciones pueden dar miedo. Quemado hasta cierto punto por la confusión existente en torno a la computación en red, muchos proveedores de redes la tienen drásticamente cortar el término de sus estrategias de marketing. Al aprender de lo que podría percibirse como un error, estos proveedores no se adaptan tan rápido a la computación en la nube. Sin embargo, muchas de sus nuevas direcciones podrían caer fácilmente bajo el paraguas de la nube, y los que lo conocen reconocen fácilmente que las tecnologías de cuadrícula sustentan la nube.

Entonces, ¿qué debería hacer un proveedor de middleware?

Primero, compare

Dentro de División Business Data Center En Univa UD, la mensajería relacionada con la computación en red se eliminó por completo, ya que la división intenta crear tracción para su producto de orquestación del centro de datos Reliance (del cual la compañía también canceló el MP de cuadrícula componente de middleware). Lo que el director ejecutivo de la división, Alex Brown, llama el «policía de tráfico o el cerebro de la operación», Reliance combina el conocimiento de las aplicaciones, la orquestación de circuito cerrado y la automatización de SLA para ofrecer un rendimiento de aplicaciones y clientes óptimos. y los posibles clientes de Univa UD lo ven como una parte clave de su infraestructura de nube o de servicios públicos.

Aunque nadie habla de computación en red, Gordon Jackson de Univa UD dice que las experiencias de la compañía con la administración de redes y la distribución a gran escala contribuyen directamente a su éxito con Reliance, especialmente en lo que respecta a la administración y distribución de recursos. . Jackson es el director técnico del ex evangelista de virtualización en DataSynapse de la División de Negocios de Data Center.

Brown está de acuerdo en que una verdadera solución similar a una nube requiere una comprensión significativa de los conceptos de la red. «Sin embargo, debido a que la gente pensaba que la parrilla era tan especializada, recibía mucho equipaje», explica. “Entonces, si bien gran parte de la tecnología subyacente es muy relevante, gran parte de la terminología y muchos de los procesos antiguos no lo son. De hecho, dificultan la adopción de tecnología para la nube «.

Ivan Casanova, vicepresidente de marketing de producto en el mencionado DataSynapse también ve una conexión que define la computación en red como el punto de partida de la computación en la nube, «un punto de prueba para una infraestructura compartida y dinámica». Una parte importante de la computación en la nube es la capacidad de escalar en función de la demanda, y el middleware de computación en red es una excelente manera de hacerlo, dice. (Casanova también señala que SOA es el modelo arquitectónico para la computación en la nube, y DataSynapse tiene clientes que implementan SOA y usan el producto GridServer de la compañía para escalar esos servicios).

En el frente de la cuadrícula de datos, Cameron Purdy de Oracle, vicepresidente de Middleware de fusión, dice, «La tecnología de cuadrícula de datos … es casi esencial en cualquier procesamiento transaccional u otro sistema con uso intensivo de datos que se implementaría en un entorno de nube. No puedo imaginar cómo ejecutaría una aplicación con uso intensivo de datos. datos en cualquier número de servidores en ese tipo de entorno sin la capacidad de compartir y coordinar el acceso, operar y reaccionar a los cambios y eventos que ocurren en esa información «.

Segundo Plataforma de TI Songnian Zhou, presidente y director ejecutivo, sus clientes definitivamente ven la conexión entre la red y la nube como la ven moverse desde redes empresariales centradas en HPC hasta plataformas de servicios compartidos genéricos, a menudo virtualizados. «Puede que no lo llamen nube, puede que no lo llamen centro de datos bajo demanda, pero claramente lo son», dice.

Pasar de la red a la nube, al menos internamente, dice Zhou, es realmente una cuestión de evolución: las arquitecturas y los objetivos son los mismos, pero el alcance es diferente. A medida que los usuarios pasan de cargas de trabajo HPC a cargas de trabajo más genéricas, agregan componentes como middleware e hipervisores J2EE para permitir aplicaciones más dinámicas y aumentar la movilidad. “Las herramientas y los contenedores deben llevarse en el plato, pero [in terms of] Arquitectura y enfoque fundamentales, no veo mucha diferencia entre la red y la nube o bajo demanda o el centro de datos dinámico «, dice.» Siempre está evolucionando y expandiéndose … lejos de los servidores de clientes aislados «.

Jackson de Univa UD también ve este movimiento. También en HPC, cree, la red está preparada para convertirse en una plataforma para atender a más aplicaciones y clases de usuarios. «[A]Tan pronto como comience a aplicar la inteligencia para distinguir entre el cliente platino y el cliente bronce, o las aplicaciones … y los servicios que necesito realizar en nombre de esos clientes, creo que ha tomado su red y la ha transformado. en una infraestructura de servicios «, dice. Mover redes discretas en un gran grupo de recursos inteligentes significa la mejor relación calidad-precio para el negocio, agregó.

Paul Strong, distinguido ingeniero de Laboratorios de investigación de eBay está activo Foro de cuadrícula abierta participante, ni siquiera está seguro de que debamos trazar la distinción entre las llamadas nubes internas y las redes orientadas a servicios. En ambos casos, los usuarios aprovechan la virtualización e infraestructura compartida para lograr una alta utilización y flexibilidad de las aplicaciones en función de los cambios en las cargas de trabajo y las necesidades comerciales. En esencia, dice Strong, los usuarios están resolviendo los mismos problemas con las mismas tecnologías subyacentes.

Esto también se aplica a la infraestructura de eBay, propiedad de Strong. explicado como una cuadrícula Durante años. Hay muchos aspectos «oscuros» de la infraestructura de eBay, dice, incluida una arquitectura de base de datos fuertemente virtualizada para permitir una tremenda escalabilidad y entrega de servicios globales respaldados por SLA, disponibilidad continua y seguridad. «Según la definición de la palabra», admite, «yo diría que hemos estado lidiando con aspectos de la computación en nube durante algún tiempo».

Segundo, contraste

Sin embargo, existen diferencias entre la red y la nube, especialmente, pero no exclusivamente, donde están involucrados servicios de nube externos. Brown de Univa UD hace una clara distinción entre los dos paradigmas. Para él, la computación en red (al menos en el frente corporativo) ocurre dentro del firewall. Aparentemente, Univa UD también observa la connotación HPC de la computación en cuadrícula, ya que la empresa trasladó el middleware Grid MP a su división HPC, dejando (como se señaló anteriormente) la división de centros de datos para centrarse en Reliance y sus capacidades de automatización.

Una mentalidad similar parece estar presente en Platform. Si bien no está formalmente implementado, Zhou dice que la compañía se está moviendo hacia dos objetivos distintos: HPC y el centro de datos. Independientemente de las similitudes tecnológicas, los clientes ven la computación en red como parte de la primera y la computación en la nube (cualquiera que sea el término que surja) como parte de la segunda. A medida que la división de centros de datos toma forma, Zhou dice: “No le daremos mucha importancia a la red porque para los centros de datos, creo, la red es ajena. Tiene demasiadas connotaciones, está contaminado por HPC o el espacio de investigación y gobierno, y es demasiado complejo «.

En DataSynapse, la diferencia está muy centrada en las aplicaciones. Casanova cree que la red está dirigida a una clase específica de aplicaciones, que se han optimizado con éxito utilizando la empresa. GridServer Producto. Cuando los clientes querían ejecutar una clase más general de aplicaciones en una infraestructura compartida y dinámica, el resultado fue DataSynapse FabricServer Producto. En el futuro, ambos son parte de la estrategia más amplia similar a la nube de la compañía.

«No creo que la gente haya empezado a imaginarse la computación en red como un patrón continuo en el que todos estos servicios comerciales o diferentes tipos de aplicaciones se ejecutaban en una nube, eran universalmente accesibles, eran independientes de la tecnología», dice Casanova. . «Creo que comenzaron esa conversación en torno a» Realmente necesito escalar esta aplicación desde el punto de vista del rendimiento y quiero aprovechar el hardware y los sistemas básicos que ya tengo para ayudarme «. [experience] una mejora del orden de magnitud [in how] esta importante aplicación se realiza «.» El movimiento de la nube dentro de las organizaciones, agrega, realmente ha sido impulsado por lo que las empresas de Internet como Amazon ven hacer con su infraestructura.

Para ilustrar aún más las diferencias fundamentales entre los paradigmas, Casanova cita las capacidades que deben agregarse a las soluciones de red si se van a volver a empaquetar y vender como soluciones en la nube: aprovisionamiento automatizado, escalamiento horizontal y visibilidad de uso. Para los usuarios comerciales, dice, comprender el uso les ayuda a definir políticas para automatizar aún más y maximizar la utilización de recursos. Para los proveedores de la nube, dice, los datos de uso se convierten en la base de sus modelos de contracargo.

La sólida visión de EBay de las redes y las nubes externas «menos en términos de tecnología y más en términos de cómo pensamos de manera diferente sobre los negocios». Con la computación en la nube, dice, todo lo que una empresa tiene que hacer es codificar su idea diferenciadora. La empresa puede obtener todo lo demás: infraestructura, servicios comerciales no críticos, etc. – desde la nube.

La computación en cuadrícula, explica Strong, se trataba de construir y optimizar la infraestructura para ejecutar ciertos tipos de cargas de trabajo. La computación en la nube complementa y promueve esta noción, pero también ayuda a las empresas a alejarse de los aspectos «agudos», dice. Se trata más de proporcionar servicios de manera flexible dentro de una organización (nube interna) o de recibir servicios centrales de manera flexible (nube externa). «Creo que las nubes nos llevan al siguiente paso conceptual de ir más allá … la maleza, donde estaba gran parte del trabajo de la red, para [asking] «¿Cómo enfocamos el negocio y entregamos el valor comercial correcto?» Estados fuertes. «El conjunto de tecnologías subyacentes es, en esencia, el mismo, pero la discusión ha cambiado».

Siguiente siguiente: La segunda mitad de nuestro análisis del nexo entre la computación en red y la computación en la nube se centrará en las futuras estrategias orientadas al centro de datos dinámicos de estos antiguos proveedores de redes. Veremos cómo, en todo caso, intentan aprovechar el bombo publicitario de la computación en la nube como un término de marketing y cómo la idea de la computación en la nube se relaciona realmente con lo que están haciendo.

No te olvides compartir en tu Facebook para que tus amigos lo sepan

??? ? ? ???

Comparte