Cloud Computing, virtualización 2.0 entre los aspectos más destacados de NGDC - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Cloud Computing, virtualización 2.0 entre los aspectos más destacados de NGDC

Hola, ¿qué tal colega?. Yo soy Simón Sánchez y esta vez te voy a contar sobre Cloud Computing, virtualización 2.0 entre los aspectos más destacados de NGDC

¿Alguien realmente pensó que una conferencia llamada Next Generation Data Center (NGDC) iría y vendría sin abordar «la nube»? En 2008, un año que se registrará en los anales de TI como el «Año de la nube», eso ni siquiera es posible. Sin embargo, la computación en la nube no fue el único tema discutido en la feria, e incluso cuando fue el paradigma del día, su presentación varió desde «esto es lo que es» hasta «así es como se ve» y «así es como somos». lo estás usando, hoy «. (Y ni siquiera he asistido a todas las sesiones de computación en la nube).

Toda la feria NGDC / LinuxWorld (celebrada la semana pasada en San Francisco) comenzó con un discurso de apertura del arquitecto jefe de tecnología de Merrill Lynch, Jeffrey Birnbaum, quien describió la transición del banco de inversión a una «computadora sin estado». En realidad, explicó, no se trata tanto de ser apátrida como de dónde está el estado. Merrill Lynch se está moviendo de una red de servidores dedicados a una red de servidores compartidos, esencialmente funcionando como una nube que permite a Merrill Lynch proporcionar capacidad en lugar de máquinas.

Aparte del cambio de arquitectura, Birnbaum dice que otro elemento clave de la infraestructura sin estado de Merrill Lynch es su sistema de archivos corporativos, que en su opinión realmente debería llamarse el «sistema de entrega de aplicaciones». En un entorno de espacio de nombres como la web, todos los componentes necesarios para ejecutar una aplicación son referenciables a través del sistema de archivos, eliminando así la necesidad de grandes pilas de software e imágenes doradas. El sistema de archivos funciona mediante una combinación de push and pull, o replicación y caché, dijo Birnbaum. La estrategia también funciona para escritorios virtuales, dijo, con todas las aplicaciones, incluido el sistema operativo, que se transmiten al cliente ligero.

Pero mantener las cosas ligeras y flexibles es solo una parte del desafío; La gestión de la carga de trabajo también es importante. Birnbaum dice que la virtualización generalizada es clave para este tipo de infraestructura, pero algunas aplicaciones no pueden manejar la sobrecarga de rendimiento impuesta por la ejecución en un entorno virtual. Para este tipo de aplicaciones, una plataforma informática sin estado necesita la capacidad de alojar aplicaciones física o virtualmente. Además, dice Birnbaum, todo debe estar basado en políticas para que las aplicaciones primarias obtengan sus recursos cuando los necesitan. En el frente de la gestión de la carga de trabajo, Merrill Lynch está trabajando Evergrid, Plataforma de TI es SoftModule.

Para las personas preocupadas por el gasto de capital, la mejor parte de la visión sin estado de Merrill Lynch es que se puede ejecutar principalmente (si no completamente) en hardware básico. Debido a que el estado está en la arquitectura en lugar de una sola máquina, Birnbaum dice que puede comprar hardware más barato, menos redundante y menos especializado, deshacerse de las máquinas fallidas y mover su trabajo a otra parte sin preocupaciones.

Uno de los grandes beneficios comerciales del procesamiento sin estado en Merrill Lynch es que permite al líder de servicios financieros maximizar la utilización de los recursos existentes. Si alguien necesita 2.000 servidores para una red de derivados exóticos y la empresa solo tiene un 31% de utilización, tiene esa capacidad de reserva y no tiene que comprar esos servidores adicionales, explicó Birnbaum. Al ofrecer una idea de la mentalidad financiera, Birnbaum agregó que Merrill Lynch compra nuevos servidores cuando alcanza el 80% de utilización, lo que garantiza un búfer de capacidad en caso de picos.

Hablar menos sobre una implementación de nube interna en el mundo real y más sobre los componentes básicos de la computación en nube fue Appistryes Sam Charrington. Uno de sus puntos clave fue que, aunque la virtualización se encuentra entre las tecnologías impulsoras de la computación en la nube, un grupo de máquinas virtuales no es lo mismo que una nube. Es genial poder extraer recursos o máquinas del aire, explicó Charrington, pero la plataforma necesita saber cómo hacerlo automáticamente.

Además de familiarizarse con las tecnologías y los paradigmas subyacentes, como la virtualización y SOA, Charrington también recomendó a los aspirantes a usuarios de la nube que se familiarizaran con las nubes públicas como Amazon EC2. GoGrid y Google App Engine; inventariar sus aplicaciones para ver qué funcionará bien en la nube; y formar un pequeño equipo para planificar y comprender la migración.

De cara al futuro, Charrington dice que el panorama de la nube no solo consistirá en nubes públicas que a menudo se describen como EC2, sino que también incluirá nubes privadas virtuales para tipos específicos de aplicaciones / industrias (como una nube HIPAA para el campo médico) y privadas. , dentro – el firewall en la nube. Citando a Rachel Chalmers de The 451 Group, Charrington dijo que los mejores CIO serán aquellos que puedan posicionar mejor las aplicaciones dentro y aprovechar esta variedad de opciones en la nube.

La nube también fue el centro de atención del veterano de la computación en red, Ravi Subramaniam, ingeniero principal del Digital Enterprise Group de Intel. Subramaniam encabezó su presentación señalando que la computación en la nube no es «computación en las nubes», principalmente porque tanto externa como internamente, la computación en la nube está organizada de manera inherente y los usuarios conocen al proveedor, ya sea Amazon, Google o su departamento. ESO. Al ilustrar una especie de versión en la nube de la Tercera Ley de Newton, Subramaniam señaló que por cada desventaja de la computación en nube, existe una ventaja igualmente convincente: existen problemas de seguridad, pero los ahorros de CAPEX y OPEX pueden ser drásticos; los usuarios finales pueden tener un control limitado sobre los recursos, pero esos recursos son fáciles de usar por diseño; y así.

Subramaniam ha centrado gran parte de su charla en la relación entre la computación en red y la computación en la nube, especulando que los dos no son tan diferentes como muchos creen. Sin embargo, señaló, para llegar a esta conclusión es necesario considerar la red como una solución amplia y orientada a servicios en lugar de algo limitado y específico de la aplicación. En su forma ideal, explicó, las cuadrículas se tratan de administrar cargas de trabajo e infraestructura dentro del mismo marco, así como hacer coincidir las cargas de trabajo con los recursos y viceversa.

Sin embargo, a pesar de todas sus fortalezas, la computación en cuadrícula tiene sus debilidades, entre las cuales Subramaniam cita una falta de simplicidad en la aplicación y una utilidad limitada en entornos de pequeña escala. La computación en la nube intenta simplificar la red desde el nivel del usuario, dijo, lo que significa usar un modelo de aplicación uniforme, usar la web para acceder, usar la virtualización para enmascarar la complejidad y usar un paradigma «declarativo» para simplificar la ‘Interacción. En esencia, resumió Subramaniam, la nube es donde la cuadrícula quería ir.

Si los usuarios abordan la computación en la nube y la computación en red con una mente abierta y aplicando definiciones amplias, verán que las sinergias entre los dos paradigmas son bastante fuertes. La combinación de tecnologías de red y nube, dice Subramaniam, significa virtualización, agregación y partición según sea necesario, un grupo de recursos que puede adaptarse y adaptarse según sea necesario, e incluso la capacidad de aprovechar las nubes externas para aumentar los recursos existentes.

Virtualización 2.0

Por supuesto, la computación en la nube no fue el único tema discutido en NGDC y uno de particular interés para mí fue el concepto de «virtualización 2.0». En una discusión moderada por el analista Dan Kuznetsky, ponentes: Greg O’Connor de Trident Systems, Larry Stein de Sistemas de escala, Jonah Paransky de StackSafe y Albert Lee de Xkoto Todos parecían estar de acuerdo en que la virtualización 2.0 consiste en trasladar los trabajos de producción a entornos virtuales, superar el hipervisor y ofrecer soluciones empresariales reales a problemas empresariales reales.

Pero la verdadera discusión giró en torno a lo que impulsa los avances en la virtualización. Xkoto es un proveedor de virtualización de bases de datos, y Lee dijo que señaló que el primer ciclo de virtualización generó expectativas de aprovisionamiento, conmutación por error y consolidación y ahora los usuarios quieren más. En el espacio de la base de datos generalmente basado en tierra, señaló, incluso los DBA están pidiendo resultados como lo han visto sus compañeros de niveles en otros niveles.

Otra área donde las expectativas han aumentado es la disponibilidad, dijo Paransky de StackSafe. Si bien en el pasado eran solo los sistemas de procesamiento de transacciones de los grandes bancos los que requerían disponibilidad continua, Paransky bromeó (aunque no sin un elemento de verdad) que ahora se considera un desastre si el correo electrónico deja de funcionar durante cinco minutos, y Dios no quiera que Twitter se caiga. Las personas esperan que sus sistemas y aplicaciones estén siempre disponibles, y esperan que la virtualización les ayude a conseguirlo.

Lee agregó que una vez que ingresa, debe nadar y los usuarios quieren seguir invirtiendo en tecnologías de virtualización.

Sin embargo, existen inhibidores. Lee sostiene que aquellos que adoptan la virtualización de servidores simplemente por el bien de la consolidación corren el riesgo de arrinconarse al depender de menos cajas para ejecutar la misma cantidad de aplicaciones. Si cae una caja, señaló, el efecto es mucho mayor.

El miedo al cambio también parece obstaculizar una mayor adopción de la virtualización. Stein of Scalent dijo que las empresas ven el valor de la virtualización, pero convencerlas de ir más allá de las políticas heredadas relacionadas con las nuevas tecnologías puede resultar difícil. Además, agregó, no es tan simple como copiar y reemplazar: la virtualización debe funcionar con los centros de datos existentes. Paransky se hizo eco de esta preocupación y señaló que la virtualización puede significar un cambio incontrolado, lo que es particularmente aterrador para las organizaciones con sistemas sólidos de gestión de cambios.

Además, señaló, la virtualización 1.0 no ha terminado exactamente, ya que el 70-80 por ciento de los dólares de TI se gastan en lo que ya está disponible. Paransky aseguró a la sala que, si bien no son sexys, la gente todavía tiene mainframes debido a este impulso para mejorar o mantener los sistemas existentes en lugar de actualizar a otros nuevos.

El moderador Kuznetsky no fue ajeno a estos obstáculos y preguntó al panel qué impulsará a las organizaciones a dar el salto a la virtualización 2.0, especialmente considerando la regla general de que las organizaciones odian cambiar algo o adoptar nuevas tecnologías. Lee de Xkoto comentó que el mundo de las tecnologías de la información responde al dolor, resistiéndose al cambio por el bien del cambio y resistiendo hasta que no haya debilidades reales.

Paransky adoptó una postura más enérgica y afirmó que las organizaciones ya no pueden darse el lujo de resistirse al cambio como lo hicieron en el pasado. Los clientes pagan sus facturas, dice, y no les gusta el ritmo de cambio de tortuga, quieren dinamismo. Sin embargo, señaló que las organizaciones odian el cambio no porque piensen que es malo, sino porque conlleva riesgos. El truco consiste en equilibrar los beneficios que la virtualización puede aportar con la necesidad de mantener las cosas en funcionamiento.

Deberías compartir en en tu Twitter y Facebook para que tus colegas lo lean

??? ? ? ???

Comparte