A Gartner también le encanta la computación en la nube - Calendae | Informática, Electrónica, CMS, Ciberseguridad

A Gartner también le encanta la computación en la nube

Hola, un placer verte por aquí. En el teclado Simón Sánchez y hoy te voy a contar sobre A Gartner también le encanta la computación en la nube

Las Vegas no es exactamente Silicon Valley East, pero se las arregla para mantener ocupados a los periodistas de TI que viven aquí con innumerables conferencias. Esta semana, el Conferencia del centro de datos de Gartner está en la ciudad.

Ahora, respeto a Gartner tanto como a cualquier otro chico, pero él tiene que dejar de programar conferencias magistrales a las 8 am.No tengo idea de cómo estos centros de datos reprimidos se levantan tan temprano después de pasar sus noches viviendo en Sin City, especialmente considerando que yo no estaba. poder llegar al MGM Grand tan pronto, también para aprender sobre computación en la nube y tecnologías revolucionarias de centros de datos. (¡Impactante!) Afortunadamente, tengo las diapositivas.

Empecemos por la nube. En su presentación titulada «El futuro de la infraestructura y las operaciones: el motor de la computación en la nube», Thomas Bittman de Gartner presenta la computación en la nube como una implementación externa de una infraestructura en tiempo real (RTI). Los RTI destacan por sus capacidades de automatización, orientación al servicio, aprovisionamiento dinámico, SLA, etc. Los propios proveedores de la nube ya se han cambiado a RTI, y las organizaciones que buscan aprovechar al máximo la computación en la nube también deberían estar bien encaminadas hacia RTI. Su plazo para la adopción generalizada de la organización RTI es 2010-2020. Por supuesto, la virtualización permite todo esto y las organizaciones avanzadas ya están virtualizando sus operaciones.

(Por lo que vale, Bittman parece haberse calentado hasta la nube desde entonces el año pasado.)

Hablando de virtualización, Bittman lo divide hasta ahora en tres versiones distintivas. La virtualización 1.0 se trata de consolidación y ahorro de costos, la virtualización 2.0 se trata de agilidad y velocidad, y la virtualización 3.0 se trata de adquisiciones alternativas o computación en la nube. Inicialmente, este último puede consistir «simplemente» en mover máquinas virtuales entre servidores físicos para satisfacer la demanda. En las etapas más avanzadas, esto incluiría el modelo híbrido altamente publicitado: mover cargas de trabajo entre el centro de datos y los recursos de la nube fuera del sitio.

Para gestionar este «abastecimiento en la nube», Bittman cree que las pequeñas empresas recurrirán a «agentes de servicios», la evolución de los integradores de sistemas y VAR actuales, que orquestarán los recursos en la nube y se responsabilizarán de los niveles de servicio. Las empresas más grandes, sugiere Bittman, formarán «equipos de adquisiciones dinámicos» que son expertos en TI y negocios que toman decisiones de adquisición diarias.

Según la presentación de Bittman, RTI, o la nube interna, se habilitará aún más mediante meta sistemas operativos (consulte el Sistema operativo de centro de datos virtual de VMware) y blades de rack avanzados con cómputo, almacenamiento y memoria integrados, CPU y memoria agregadas y E / S virtualizadas.

En una presentación a la que asistí, Donna Scott de Gartner expandió el RTI. Para empezar, dijo que actualmente no hay RTI a nivel de centro de datos; existen solo en los bolsillos. Sin embargo, agregó, RTI está impulsada por fuerzas externas que incluyen computación en red / HPC / computación en la nube, servicios compartidos, SOA, presiones de TI (costo y rendimiento) y preocupaciones del centro de datos, como modernización o restricciones. ¿La fuerza impulsora? La encuesta de Scott de junio de 2008 y una encuesta pública rápida encontraron que la «agilidad» es el líder, pero los «ahorros de costos» son el número 2 y van en aumento. (No olvidemos que muchas cosas han cambiado desde junio. El ahorro de costos podría ser un hito muy pronto).

Otra encuesta pública encontró que la «madurez del proceso de gestión» y la «organización / cultura» son los dos principales inhibidores de la RTI, un hallazgo que tiene sentido. Estos son exactamente los mismos problemas que han plagado la computación grid en la empresa tradicional, y el mismo que sigo escuchando mencionado con respecto a la computación en la nube: dos modelos de entrega que caen en el ocaso de RTI. Otros inhibidores incluyen la madurez de la infraestructura, tecnología no probada, problemas de bloqueo y ROI.

Sin embargo, no se trata solo del futuro. Scott dice que RTI está arraigado en entornos informáticos de alto rendimiento y se están logrando avances en las siguientes áreas: virtualización de servidores, aplicaciones J2EE y .NET, virtualización de bases de datos, recuperación de desastres, entornos de prueba compartidos, servidores de alta disponibilidad de servidores débilmente acoplados (actuando libremente en clústeres acoplados), reutilizando nodos de producción (por ejemplo, de lotes a OLTP) y expandiendo dinámicamente la capacidad para aplicaciones específicas.

Scott también habló sobre la necesidad de gobernadores de servicio, los cerebros de RTI. Los reguladores de servicio actúan en base a SLA, políticas, demanda de aplicaciones, etc. Sin embargo, agregó, es probable que necesite diferentes reguladores en diferentes niveles, aplicaciones y entornos. Esto parece decididamente cierto, ya que se refiere a VMware, por ejemplo, cuya iniciativa VDC-OS parece abarcar todo, pero solo es compatible con entornos VMware. Dicho esto, empresas como IBM podrían eliminar la necesidad de múltiples gobernadores con soluciones de gestión en la nube como Blue Cloud.

En dos áreas que me preocupan especialmente, Scott ha designado al líder del servicio de aplicaciones del gobernador Cassatt (con respuesta activa), DataSynapse (con FabricServer) e IBM (con WebSphere Virtual Enterprise). Para los líderes del gobernador de servicios de infraestructura, Cassatt señaló nuevamente, así como Se unió a UD (con Reliance), acerca de (con Data Center Automation Manager), VMware (con DRS), Novell (con ZENworks) y IBM (con Tivoli Intelligent Orchestrator y Tivoli Provisioning Manager).

En cuanto a cómo construir un RTI, Scott sugiere hacerlo de abajo hacia arriba. Primero, dice, estandarice y consolide. Entonces, virtualice. Paso tres, estandarice los procesos. Finalmente, automatice acciones basadas en políticas, cambie a TI orientada a servicios, etc. – todos esos pasos de vanguardia que pueden parecer una quimera en este momento.

Concluiré con la lista de Carl Claunch de las «10 mejores tecnologías disruptivas que afectan al centro de datos». No es de extrañar que la computación en la nube esté en la lista: el número 2, para ser exactos. (Espero que nadie esté molesto porque no estoy definiendo la nube aquí por mil millonésima vez, y dado que en realidad no he visto la nota clave, no puedo ofrecer ninguna información candente del propio Claunch). También se incluye en la lista, en el no. 3, los tejidos de TI, que son muy similares (si no iguales) a los racks blade de próxima generación de los que habló Bittman en su nube de notas clave. Esto tiene sentido para mí porque, como señalé en varias ocasiones el año pasado, IBM dijo que su primera solución Blue Cloud sería en forma de IBM BladeCenter. Si esto sucede realmente, tendremos que esperar y ver.

En orden de 1 a 10, la lista de tecnologías disruptivas de Claunch es:

  1. Virtualización en almacenamiento

  2. Computación en la nube

  3. Servidor: Beyond Blades

  4. Virtualización para PC

  5. Mashups corporativos

  6. Sistemas especializados

  7. Software social y redes sociales

  8. Comunicaciones Unificadas

  9. Zonas y vainas

  10. TI verde

Recuerda compartir en en tu Twitter y Facebook para que tus amigos lo lean

??? ? ? ???

Comparte