El New Deal de IBM captura la estrategia de HPC reenfocada - Calendae | Informática, Electrónica, CMS, Ciberseguridad

El New Deal de IBM captura la estrategia de HPC reenfocada

Hola otra vez. Soy Simón Sánchez y esta vez vamos a hablar sobre El New Deal de IBM captura la estrategia de HPC reenfocada

Fue un mes de noticias para IBM, con la venta de su negocio x86 a Lenovo, seguido de algunas preguntas intensas sobre lo que esto significa para su visión (y futuro) con los clientes de HPC en la academia y el gobierno en particular. Y aunque algunos podrían llamarlo la pieza central de un cambio de estrategia, algo más grande se cierne en el horizonte de Big Blue y la pieza del procesador es solo un fragmento del arco de la historia.

Pero Dave Turek, vicepresidente de Computación Avanzada de IBM, dice que eventualmente, y sí, incluso después de las noticias de Lenovo, su negocio continuará al ritmo de HPC, pero con algunos ritmos nuevos agregados a una vieja melodía. Después de todo, como él recuerda, IBM nunca fue el único proveedor de x86 que proporcionó servidores al gobierno y las universidades. Además, estos enfoques de productos básicos pueden no estar tan bien equipados para un futuro definido por datos, un futuro que, según Turek, requiere un sentido refinado del flujo de trabajo general en lugar de solo fracasos. Como resultado, IBM está desarrollando un enfoque más amplio para los problemas de la gran ciencia (y las grandes empresas) que combina matices más sutiles en el retrato del servidor HPC, lo que lleva a lo que puede ser una imagen completamente diferente en los próximos años.

Específicamente, IBM fusionará algunas tecnologías futuras (aún sin nombre) con su visión de sistemas basados ​​en datos que hacen que el concepto de flujo de trabajo y la función final de los requisitos del usuario sean de primordial importancia. El desafío no será tanto la tecnología como la unión de estos conceptos y el desplazamiento de la «HPC clásica» de su enfoque tradicional. Para IBM, el cambio implica una visión amplia de todo el ciclo de vida de los datos y, como era de esperar, una inversión significativa en energía.

Señaló que la propuesta de IBM en el futuro es «atacar todo el flujo de trabajo desde la perspectiva de cómo se capturan, administran, gobiernan y analizan los datos en muchas áreas diferentes de la infraestructura de HPC, no solo en el servidor». es que la naturaleza de la apariencia de los servidores en el futuro puede cambiar un poco «.

En otras palabras, lo que IBM ve en el futuro se parece mucho a la palabrería de Watson y su gama de tecnologías Smarter Planet, paralelos que Turek hizo explícito en una conversación esta semana a raíz de algunas noticias sobre una nueva asociación con Texas A&M que combina datos analíticos con procesamiento de alto rendimiento a través de IBM Blue Gene / Q alojado (proporcionado por la nube) administrado con Platform Computing y aprovechando GPFS. Esto le brinda a la compañía una forma de mostrar la combinación de todas sus herramientas prioritarias, dice Turek, desde el sistema de archivos hasta el software de la plataforma y la capacidad de generar datos en una amplia gama de aplicaciones. La colaboración, según IBM, tiene como objetivo «mejorar la extracción de recursos energéticos de la Tierra, facilitar la red energética inteligente, acelerar el desarrollo de materiales, mejorar la identificación y seguimiento de enfermedades en animales, y promover una mejor comprensión y seguimiento de nuestro suministro mundial de alimentos «. Una vez más, todos tienen elementos alineados con la iniciativa Smarter Planet de IBM.

«Todos los servidores están en la periferia y los datos están en el corazón de la propuesta», explicó Turek. Queríamos que la estrategia de Texas A&M reflejara la estrategia de IBM para la computación de alto rendimiento centrada en datos que cree una infraestructura que les permita traer múltiples arquitecturas para abordar los problemas en cuestión. Este acuerdo es característico de uno de los cambios que se están produciendo en la estrategia general de HPC de IBM, señaló. «El objetivo es involucrar progresivamente a los clientes en la colaboración como una forma de ayudarnos a comprender mejor los diferentes segmentos de mercado y dominios de problemas y construir mejores productos … Esta es la herramienta adecuada para el problema correcto», dice Turek.

Si bien es esencialmente una colaboración arraigada en la investigación de HPC, señaló que el artículo de BlueGene no es la piedra angular de la historia, se trata de que los problemas de datos se aborden de maneras nuevas, prácticas y conscientes del flujo de trabajo. “Se necesita una integración entre big data y tecnologías HPC clásicas. Estos son conceptos inseparables para nosotros a medida que avanzamos. Con demasiada frecuencia, los jugadores en el espacio HPC han elegido un algoritmo o una serie de ecuaciones diferenciales parciales y se dan palmadas en el pecho y dicen: «Mira lo rápido que hemos hecho esto». La cuestión es que, si en el flujo de trabajo de interés general del cliente, ese trabajo ha pasado de un día a un segundo, acaba de mejorar el rendimiento general del flujo de trabajo mucho más grande en solo un pequeño porcentaje «.

“Nuestra industria se ha visto obstaculizada por autodefinirse a sí misma como un vehículo para producir dispositivos que buscan resolver de manera óptima colecciones de ecuaciones diferenciales parciales o ecuaciones no lineales / lineales. Pero esto puede ser una parte tan pequeña del flujo de trabajo general que constituye un flujo de trabajo de HPC que terminamos haciendo un flaco favor a la industria en general «.

Turek dice que cuando IBM introdujo el concepto de flujo de trabajo hace un par de años en sus conversaciones a exaescala con el Departamento de Energía y otros, dejaron en claro que cuando comienzas a mirar los flujos de trabajo, debes considerar explícitamente la gestión de datos. los flujos de datos y la organización de los datos tanto como prestar atención a los algoritmos en sí. Cuando se le preguntó cómo esto cambia la dirección de los sistemas HPC de IBM del futuro, especialmente sin un juego x86 para algunos de sus principales clientes de HPC en el gobierno y el mundo académico, señaló que la arquitectura centrada en datos va mucho más allá de la visión. microarquitectura de evaluación de sistemas. «Hay que tener en cuenta dónde están los datos, cómo se mueven y dónde se procesan. Claro, un procesador está involucrado, pero hay muchas formas de abordar estos problemas desde una perspectiva de flujo de trabajo general».

La última palabra de IBM es un compromiso firme y constante con HPC, un compromiso que se extiende absolutamente a los espacios gubernamentales y académicos (esas áreas están en el corazón de la demanda). “Estamos comprometidos materialmente con ellos en términos de codiseñar inversiones futuras y nuestra inversión en nuestros servidores Power para asegurarnos de que les ofrecemos las mejores soluciones del mundo en el futuro. Continuaremos con estas inversiones en HPC. Nos centraremos en enfocar la inversión en nuestra tecnología Power y mantendremos nuestra relación comercial con Lenovo para proporcionar las tecnologías basadas en Intel que los clientes que conocemos puedan necesitar «.

No te olvides compartir en tus redes sociales para que tus colegas lo vean

??? ? ? ???

Comparte