IBM ofrece un vistazo al futuro de las inversiones en HPC - Calendae | Informática, Electrónica, CMS, Ciberseguridad

IBM ofrece un vistazo al futuro de las inversiones en HPC

Hola, ¿qué tal colega?. En el teclado Simón Sánchez y en esta ocasión vamos a hablar sobre IBM ofrece un vistazo al futuro de las inversiones en HPC

Uno de los temas de conversación más frecuentes de esta semana en la Conferencia Internacional de Supercomputación (ISC14) fue el papel revisado que algunos esperan que IBM desempeñe tras la adquisición del negocio Lenovo x86 y cómo su inversión en informática de alto rendimiento. el rendimiento puede cambiar después de la transición.

No es de extrañar que este tema esté en boca de todos, especialmente cuando se menciona el papel permanente de IBM en la lista TOP500, que se acaba de anunciar. Big Blue todavía disfruta de una participación considerable de los mejores puntos de referencia de Linpack con su participación del 35,2% en la lista general (solo una marca por debajo de HP). Pero, por supuesto, estos son sistemas que seguirán el camino de los dinosaurios a medida que IBM actualice su estrategia de HPC a raíz de los muchos cambios en torno a las inversiones de OpenPower, el acuerdo de Lenovo y una mayor competencia de los desarrollos a nivel de chip y acelerador. Si bien esta lista y HPC siguen siendo importantes para IBM, ven este segmento como algo que eclipsa al Top500; de hecho, se erige como la antítesis de la visión centrada en FLOP.

IBM habló esta semana en presentaciones y reuniones individuales sobre la naturaleza firme de su compromiso con la supercomputación y, finalmente, estamos comenzando a entender lo que significa más allá de las meras palabras. Parece que a lo largo del año, veremos que el cumplimiento formal de las inversiones en HPC en curso se lleva a cabo en forma de algunos anuncios importantes que vinculan las innovaciones en OpenPower y un nuevo enfoque del concepto de «flujo de trabajo» como la teoría dominante para impulsar. diseño del sistema futuro.

Lo más convincente es que podemos esperar que esta visión, que incorpora el negocio en torno a OpenPower (y, por supuesto, la hoja de ruta de la arquitectura Power), se aleje de un énfasis centrado en la computación y se centre en las operaciones comerciales de HPC del mundo real se materialice en forma de anuncios de productos reales en 2014 y una hoja de ruta de productos y estrategias más definida para 2015.

En el corazón de esto se encuentra el concepto de flujo de trabajo HPC, que incluye algunos inquilinos centrales. En primer lugar, los datos de gestión, captura y manipulación no se pueden eliminar de la conversación de HPC; el fenómeno de los macrodatos es demasiado poderoso para ignorarlo y desempeña un papel destacado en casi todas las aplicaciones de HPC de usuario final reales que el El equipo de procesamiento técnico de IBM también ha evaluado hacia atrás las etapas de planificación para el sistema Sequoia, dice Turek. El problema, explica, es que los diseñadores de sistemas todavía están arraigados en enfoques de clústeres obsoletos que ignoran el hecho de que la computación es la parte simple: los datos son el desafío.

Con mayor heterogeneidad en los sistemas, mayor complejidad programática, más memoria y ancho de banda alimentados por cuellos de botella, y ahora, una sobrecarga de datos pura, Turek dice que la única opción es adoptar un enfoque de flujo de trabajo para el diseño. de arquitecturas futuras, una que esté centrada en los datos y se aleje de los «componentes dispares» presentes en el diseño de sistemas.

El flujo de trabajo, como nos dijo Dave Turek de IBM en una conversación detallada de preguntas en el ISC, es un término que define su estrategia de sistema HPC en el futuro, ya que incluye los crecientes requisitos centrados en datos que el equipo de procesamiento La técnica de IBM está descubriendo que domina las necesidades definidas por FLOPS en los centros gubernamentales e industriales. Si bien dice que los centros académicos tienen necesidades algorítmicas ligeramente diferentes que podrían encajar mejor con el mundo de rendimiento de Linpack, la necesidad dominante de otros centros de HPC se basa en aumentos dramáticos en el rendimiento de números enteros, no de punto flotante.

“Si nos fijamos en el personal operativo de HPC, su atención suele estar en los servidores. Obtienen la interconexión, el almacenamiento y otros elementos de una colección de proveedores y juntan estas cosas. Pero, ¿por qué alguien lo haría, por qué alguien rompería las ofertas y centraría todo en los servidores cuando gran parte de la actividad informática real se conjuga con la red, el almacenamiento y la manipulación de datos? «Con sus próximos anuncios a finales de este año, IBM planea traer todo en el paquete correcto que aproveche los últimos avances en memoria, almacenamiento, redes y, por supuesto, conectarlo al paquete de servidor correcto en un modelo de programación» utilitario «. .

Su objetivo con los próximos anuncios a finales de este año es unir todas estas preocupaciones y posibles soluciones y aprovechar el apoyo de OpenPower Foundation. Con los muchos proveedores de memoria, almacenamiento y otros proveedores en esta lista, se puede asumir que intentarán usar su propia memoria integrada, almacenamiento integrado y soluciones de ubicación de datos para pasar a un enfoque de todo el sistema. Aprenderemos más sobre supercomputación, pero es difícil ignorar los elementos de la hoja de ruta de Intel que se aclararon esta semana en términos del uso de la tecnología de memoria a nivel de chip de Micron y la nueva estructura OmniScale para impulsar la interconexión y el desarrollo de niveles. de la red. Turek parecía bastante seguro de que cualquier cosa que estuvieran cocinando tendrá un valor agregado más suave para los centros comerciales de HPC y más, y al menos leyendo entre líneas, parece que acercar los datos a la computadora de manera integral, en todo el sistema, podría ser su boleto. tome un producto corporativo y dele un brillo HPC con un poco de aceleración HPC adicional a través de las posibilidades de OpenPower.

Nuevamente, esta es la especulación de la hoja de ruta. Pero la cuestión del presente aún permanece. ¿IBM ya está perdiendo terreno debido a las demandas de Lenovo y la falta de futuro para sus tecnologías centrales de HPC, incluida BlueGene, que puede debilitarse?

«Mira la lista de miembros de nuestra Open Foundation», fue la respuesta de Turek. Con la nueva serie de anuncios programada para finales de este año, Turek dijo que recopilarán una serie de tecnologías que han impulsado su estrategia HPC existente, pero, nuevamente, la forma en que llegarán es en forma de más flujo de trabajo. enfoques integrados y definidos de forma más amplia que se ajustan a las necesidades centradas en los datos de los usuarios finales reales en comparación con la forma más centrada en TI y FLOPS que a menudo se asocia con los centros informáticos de alto rendimiento.

No hay muchos detalles sobre cómo se llevará a cabo la transición real ya que no se ha finalizado, incluso después de las presentaciones de hoy en ISC sobre el tema del futuro de IBM, un futuro que otros ejecutivos de Big Blue se están haciendo eco. Turek dice que IBM continuará operando como si no hubiera habido cambios, por lo que para fines del verano brindará más detalles sobre la mecánica real del conmutador de Lenovo.

Turek reiteró que «IBM se centra más generalmente en una orientación empresarial que se centra en la innovación, pero que la innovación es difícil de hacer en un espacio de productos básicos cuando las entradas están cerradas y solo hay un proveedor que puede dictar muchos de los términos para el desarrollo futuro. OpenPower fortalecerá nuestro enfoque general en el futuro con respecto a HPC «.

No te olvides compartir en tu Facebook para que tus colegas lo sepan

??? ? ? ???

Comparte