Microsoft examina la caché en memoria con el proyecto "Velocity" - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Microsoft examina la caché en memoria con el proyecto «Velocity»

Hola otra vez. Soy Simón Sánchez y hoy hablaremos sobre Microsoft examina la caché en memoria con el proyecto «Velocity»

Aunque es probable que pase algún tiempo antes de que veamos un anuncio de producto, y aunque su existencia se acaba de hacer pública en la conferencia TechEd de la semana pasada (y luego enterrada en este anuncio subrayando el discurso de Bill Gates), Microsoft «Velocidad«Es un gran problema.

No se puede negar que el proveedor de software más grande y aún más dominante del mundo ha logrado cierto éxito gracias a las tendencias en software como servicio y computación en la nube. Si bien ha respondido de manera algo admirable con sus diversos productos Microsoft Online Services, Office Live y Live Mesh, esas iniciativas solo han visto el mundo bajo demanda desde la perspectiva del usuario final. Como señalé anteriormente, los proveedores de software (e incluso hardware) no deben olvidar que algunos usuarios no pueden, o simplemente no accederán, a sus aplicaciones como servicios web: (1) empresas / organizaciones que consideran sus aplicaciones demasiado críticas y de datos. demasiado sensible para ser enviado a través de la Internet pública; y (2) las empresas que realmente crean y administran las aplicaciones que hacen de la Web 2.0 lo que es.

Suponiendo que tales aplicaciones estén escritas en .NET, Velocity debería acercarse notablemente a Microsoft IBM es Oráculoy también a proveedores más pequeños como GigaSpaces es Software ScaleOut – que son compatibles con .NET (y todos los que hemos introducido el año pasado) – en términos de la capacidad de almacenar en caché los datos de la aplicación. Esto, por supuesto, es sumamente importante para cualquiera que ejecute una aplicación web con muchas transacciones o, en realidad, cualquier aplicación donde los tiempos de latencia impactan directamente en la experiencia o el rendimiento del usuario (te estoy mirando, servicios financieros) . La capacidad de tener la escalabilidad de la disponibilidad de datos junto con el rendimiento tampoco es una capacidad insignificante. Por supuesto, todavía es demasiado pronto para hacer reclamos u obtener cuentas de usuario en Velocity, pero considerando el mar de aplicaciones .NET ya disponibles, y las innumerables más por venir, Microsoft parece finalmente tomarse en serio ser parte del alto rendimiento. – mundo de aplicaciones. Será interesante ver cómo Velocity interactúa con la tecnología de virtualización Hyper-V de Microsoft y Windows HPC Server 2008.

Lo que sea que surja de Velocity también debería ser una buena noticia para los socios tecnológicos de Microsoft, en particular Digipede, que ha proporcionado computación distribuida a aplicaciones .NET y ahora puede obtener la tecnología adicional que necesita para competir con las grandes. Digipede ha recibido muchos elogios de clientes y comentaristas por su solución relativamente económica y muy fácil de usar, pero uno de los inconvenientes ha sido su limitación en términos de los tipos de trabajos que la red Digipede puede manejar, a saber, trabajos. El uso intensivo de CPU aprovecha el procesamiento paralelo. Si Microsoft y Digipede pueden hacer que Velocity y Digipede Network funcionen como una unidad y mantengan el precio bajo, Digipede puede encontrarse vendiendo a una audiencia completamente nueva, que ama los datos en tiempo real. Que ocurra esta integración es pura especulación de mi parte, pero en la superficie parece tener sentido.

Volviendo a la computación en la nube desde la perspectiva del usuario (y pasando de problemas de memoria a problemas de CPU), me gustaría llamar su atención sobre el reciente anuncio de Amazon en su sitio de Amazon Web Services que los usuarios de EC2 ahora pueden aprovechar. instancias de CPU altas. Mientras que las instancias EC2 tradicionales otorgan una prima a la memoria (una instancia extragrande, que cuesta $ 0,80 por hora de instancia, proporciona 15 GB de RAM y 8 unidades de procesamiento EC2), una instancia extragrande con CPU alta, al mismo precio, hasta 7GB de RAM y 20 unidades de procesamiento EC2. Amazon dice que esta ha sido una solicitud de función popular y dice que las nuevas instancias son ideales para aplicaciones de renderizado, indexación de búsqueda o análisis computacional. Hay pocos, si es que hay alguno, servicios informáticos de utilidad bajo demanda que tengan el prestigio de EC2, por lo que esta podría ser una prueba real de cuán popular puede ser el modelo de entrega bajo demanda entre la multitud de HPC más tradicional. Algo me dice que el acceso casi puro será muy apreciado para este tipo de aplicaciones.

El cartel actual para ejecutar trabajos Online con uso intensivo de CPU es Sun Microsystems con su Network.com. Y aunque el servicio no se ha visto abrumado por los usuarios hasta ahora, parece que se está haciendo un nombre en el espacio de renderizado. Anunciado a principios de año como «Peach», la primera película en 3D producida con los recursos de Network.com finalmente se lanzó con el título oficial de «Conejito de Big Buck. «Sun aún no está listo para declarar el renderizado, particularmente con la aplicación Blender que se ofrece en el catálogo de aplicaciones de Network.com, la mejor aplicación del servicio, pero considerando el costo potencialmente prohibitivo de instalar una red interna, el Los estudios de animación más pequeños se deben a sí mismos echar un vistazo a Sun. Vi unos minutos de la película, que forma parte de un proyecto de código abierto diseñado para «estimular el desarrollo de software 3D de código abierto» y para demostrar que Ejecutar dicho software en un entorno bajo demanda puede reducir los costos, y la calidad impresionó a mi ojo inexperto. Puede leer todo sobre el proceso de fabricación y la asociación aquí, incluidos algunos de los problemas encontrados en el camino y por qué Sun necesitará aumentar sus niveles de recursos para abordar el próximo proyecto de Blender Foundation.

Finalmente, debo al menos señalar el otro artículo de esta semana, que proporciona una mirada en profundidad al nuevo blade de servidor dos en uno de HP. Como parte de la nueva iniciativa de computación escalable de HP, el primer componente de hardware de su tipo está diseñado para reducir la densidad y las facturas de energía en los centros de datos a escala Web. Como antes con IBM y Dell, HP se dirige a los mercados de Web 2.0 y de la computación en la nube con esta solución, pero sus primeros usuarios están cosechando las recompensas de formas más tradicionales.

Otros elementos de interés de esta semana podrían incluir: «Credit Suisse lanza una empresa de gestión de virtualización“; «La agencia de viajes ve una disponibilidad del 100% con Gridscale“; «rPath habilita la computación en la nube para DoE, CERN“; «Voltaire reduce la latencia con el acelerador de mensajería“; «Panorama anuncia Analytics como servicio“; es «Liquid Computing, NetApp Combine Computing, Almacenamiento, Redes. «

—–

Los comentarios sobre GRIDtoday son bienvenidos y animados. Escríbeme, Derrick Harris, un [email protected].

Recuerda compartir en tus redes sociales para que tus colegas lo sepan

??? ? ? ???

Comparte