Cloud Computing y crisis financiera - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Cloud Computing y crisis financiera

Hola otra vez. Te habla Simón Sánchez y en esta ocasión hablaremos sobre Cloud Computing y crisis financiera

Un aspecto algo pasado por alto de la actual crisis financiera es el enorme aumento en los volúmenes de negociación en los últimos días. En algunos casos, aumentaron en más del doble del promedio de los meses (y años) anteriores a la crisis. A los sistemas, por supuesto, no les importa si las acciones suben o bajan; solo necesitan administrar las transacciones. Y en su mayor parte, los sistemas de TI de Wall Street, tanto en los bancos como en las bolsas, han manejado estos picos inesperados del «cisne negro».

¿Cómo lo hicieron? De la misma manera que casi todas las organizaciones se están preparando para cargas esperadas e inesperadas: mediante sistemas de aprovisionamiento excesivo. En una pieza CNET Hablando del problema del día fiscal 2006 de TurboTax, un portavoz de Intuit dijo: “Cada año, tomamos el minuto más ocupado de la hora más ocupada del día más ocupado y construimos capacidad sobre eso. Construimos nuestros sistemas para (manejar esa carga) y fuimos más allá. «

La solución de Intuit al problema de los picos de demanda es típica, pero está lejos de ser ideal. En primer lugar, es extremadamente caro. Según los analistas, las tasas de utilización promedio de los centros de datos están entre el 15 y el 20 por ciento. Esto significa que, en promedio, el 80-85% de los recursos de TI de la organización (servidores, almacenamiento, redes y software) están inactivos. Esto crea una enorme pérdida financiera para la empresa. En segundo lugar, como ejemplifica la historia de Intuit, no es una solución en absoluto.

Predecir la demanda es un asunto extremadamente complicado. El minuto más activo del año pasado no es necesariamente un indicador sólido del volumen durante el minuto más activo de este año. No es de extrañar, entonces, que las fallas importantes en las aplicaciones sean comunes, desde la famosa interrupción de eBay en 1998 hasta las interrupciones de Twitter en 2008. Y estos problemas no son solo para las empresas web. Recuerdo el fracaso del índice Dow Jones el año pasado, los fiascos de adquisición de iPhone de AT&T y muchas otras historias, todo debido a la incapacidad de escalar bajo demanda para manejar picos inesperados.

Con el creciente potencial de socavar las economías globales y la reducción de los presupuestos de TI, las empresas ya no pueden participar en la costosa práctica del aprovisionamiento excesivo. Por otro lado, con el aumento de la competencia y la mayor importancia de la misión de los sistemas de TI para las empresas y los consumidores, la quiebra no es una opción. Pero el fracaso no está relegado a un tiempo de inactividad completo. No escalar un sistema solo puede resultar en una desaceleración, pero incluso eso puede ser extremadamente perjudicial para el negocio.

Considere un informe reciente de Tabb Group que estima que una demora de solo 1 milisegundo en respuesta a una solicitud de negociación puede costarle a una firma de corretaje hasta $ 4 millones. O un estudio de Google de que un retraso adicional de 500 milisegundos en la devolución de una página de «resultados de búsqueda» reduce el tráfico de usuarios en un 20%.

Entonces, ¿qué debería hacer una empresa?

Una propuesta de valor clave de la computación en nube es la capacidad de gestionar la volatilidad de la demanda. Los usuarios pueden evitar el tiempo de inactividad y las ralentizaciones al escalar según la demanda para manejar los picos en las cargas de aplicaciones, como los que hemos visto recientemente en el mercado de valores. Dado que los proveedores de servicios en la nube, como Amazon y Google, tienen una enorme capacidad de procesamiento, una empresa esencialmente puede «tomar prestados» estos recursos.

La noción de procesamiento bajo demanda también cambia completamente la economía de TI. Debido a que los servicios de nube pública, como Amazon EC2, GoGrid o Joyent, generalmente ofrecen precios de servicios públicos, la idea de pagar solo por los recursos solo cuando se utilizan, las empresas pueden aprovechar estos recursos únicamente para administrar los picos de demanda. . Por ejemplo, en mi empresa, GigaSpaces, hicimos un cálculo inicial que muestra que con el precio actual de Amazon EC2, es mejor usar máquinas en la nube de Amazon si esperamos que estas máquinas tengan una tasa de utilización promedio del 70% o menos. Dadas las tasas de utilización de la industria anteriores, está bastante claro por qué la idea de la computación en la nube, aunque solo sea por esta razón, es convincente.

Joe Weinman de AT&T captura bien este concepto en una publicación titulada GigaOm Las 10 leyes de Cloudonomics:

Ley de Cloudonomics # 2: Previsiones bajo pedido.
La capacidad de entregar capacidad rápidamente significa que se puede satisfacer cualquier demanda inesperada y capturar los ingresos asociados. La capacidad de eliminar rápidamente la capacidad significa que las empresas no tienen que pagar un buen precio por activos no productivos. La predicción a menudo es incorrecta, especialmente para los cisnes negros, por lo que la capacidad de reaccionar instantáneamente significa mayores ingresos y menores costos.

Haz más con menos

Si bien las encuestas recientes no muestran una disminución significativa esperada en el crecimiento del presupuesto de TI para 2009-2010, muchas de estas encuestas se realizaron antes de las consecuencias financieras recientes y es posible que su impacto total no se refleje en ellas. De cualquier manera, está claro que una de las principales prioridades de los CIO es reducir costos. Esto es especialmente cierto en sectores como los servicios financieros, la automoción y las aerolíneas, que se han visto muy afectados por la crisis actual y los altos precios del petróleo.

La computación en la nube ofrece el potencial de reducir costos al mismo tiempo que aumenta la capacidad de procesamiento e introduce nuevos productos y servicios con un ciclo de comercialización rápido. La tecnología de virtualización como VMware y Xen ya ha iniciado esta tendencia de consolidación de servidores. La computación en la nube es el siguiente paso en esta evolución.

Solo estoy haciendo mas

Si bien no estoy sugiriendo que fue el meollo de la crisis actual, una de las preguntas que ha surgido recientemente es por qué las inversiones masivas de Wall Street en el sistema de análisis de valor en riesgo no detuvieron la caída. No hemos escuchado (al menos no todavía) que estos análisis de riesgo parpadearon en rojo y fueron ignorados. En un artículo de Calendae titulado «Modelos cuantitativos también engañados», el editor Michael Feldman aborda este problema. Si bien no es la única explicación, una de las cuestiones planteadas en el artículo es el hecho de que los modelos utilizados fueron demasiado simplificados. Feldman explica que «en algunos casos, las limitaciones en el poder de cómputo requirieron estas simplificaciones para que los modelos de valoración pudieran ejecutarse».

Si se hace correctamente, la computación en la nube ofrece una potencia informática casi ilimitada. Si utilizaran un servicio en la nube como EC2 y un software creado para escalar a la nube, los quants de Wall Street podrían tener acceso fácil, barato y bajo demanda a una potencia informática masiva.

Casi cualquier industria puede beneficiarse de esta capacidad de procesamiento elástica y de bajo costo. Con un análisis y una automatización más rigurosos, la computación en la nube puede permitir que industrias enteras pasen de la toma de decisiones basada en la fe a la basada en hechos.

Pero ¿qué pasa con la tecnología?

En mis discusiones frecuentes y en mis escritos sobre computación en la nube, una pregunta recurrente es «¿Cómo implementamos nuestras aplicaciones nuevas y existentes en un entorno de nube?» ¿Existe alguna tecnología única que se pueda aplicar para aprovechar el poder bajo demanda de la computación en la nube? La respuesta es, depende. «La mayoría de las aplicaciones sin estado, como las aplicaciones web simples, se pueden mover fácilmente al entorno de nube. Después de todo, estos son solo servidores estándar a los que se accede a través de Internet.

Pero las aplicaciones más sofisticadas, como el análisis de VAR intensivo en datos que se usa en Wall Street, así como varias aplicaciones web transaccionales, requieren algunos ajustes. Los servidores de aplicaciones tradicionales, como los servidores de aplicaciones JEE de IBM, Oracle y JBoss, no se cortarán en un entorno de nube. Tienden a tener cuellos de botella centrales y están rígidamente «cableados» a los servidores físicos. Estas aplicaciones requieren servidores de aplicaciones elásticos que puedan crecer y reducirse a pedido, gestionar la tolerancia a fallos de forma transparente y moverse fácilmente sin tiempo de inactividad. Afortunadamente, existe una nueva generación de servidores de aplicaciones que cumplen exactamente con estos requisitos, incluido el producto fabricado por mi empresa.

On-Demand no se trata solo de tecnología

Hay otro aspecto del procesamiento bajo demanda que es clave para su éxito: tanto el hardware como el software deben entregarse en un modelo de uso de «pago por bebida». Por lo general, se trata de una especie de precio por hora de CPU para potencia de cálculo, precio de tamaño de datos para almacenamiento y memoria, etc. A menos que los proveedores de software ofrezcan precios reales por hora como los ofrecidos por GigaSpaces o Red Hat (ya sea que lo esté usando externamente o como parte de una nube interna), la suya no es realmente una oferta en la nube, como escribí. en mi blog.

—–

Geva Perry es gerente general de computación en la nube en GigaSpaces Technologies y una popular bloguera y oradora sobre computación en la nube. Su blog, «Thinking Out Cloud», se puede encontrar en http://gevaperry.typepad.com.

Puedes compartir en tus redes sociales para que tus amigos lo flipen

??? ? ? ???

Comparte