Larrabee para HPC: no tan rápido - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Larrabee para HPC: no tan rápido

Hola, ¿qué tal colega?. Te escribe Simón Sánchez y en esta ocasión vamos a hablar sobre Larrabee para HPC: no tan rápido

Para aquellos de ustedes que pensaban que Intel anhelaba un juego HPC con su próxima familia de procesadores Larrabee, piénselo de nuevo. En caso de que no sea un lector habitual de esta publicación, Larrabee es el procesador GPU tipo Intel x86 que debutará a finales de 2009 o principios de 2010. Con Larrabee, Intel se está preparando para desafiar a NVIDIA y AMD para el liderazgo de GPU, pero no parece interesado en explotar el chip para GPGPU.

Aunque la compañía ha tenido algunos mensajes contradictorios con respecto a Larrabee, las conversaciones recientes con Richard Dracott, gerente general del negocio de computación de alto rendimiento de Intel, y Stephen Wheat, director senior de HPC de Intel, me han convencido. que Larrabee solo estará dirigido a aplicaciones de gráficos estándar y al ámbito de la informática visual más generalizada. Este último se superpone con el espacio HPC, ya que la computación visual abarca aplicaciones como la reproducción de video y otros tipos de procesamiento de imágenes intensivo en computación. Pero para HPC genérico, Intel tiene otros proyectos en mente.

Mi primera sugerencia de que Larrabee estaba más concentrado vino de una charla reciente con Dracott en la Conferencia de Wall Street sobre HPC, donde habló sobre cómo la CPU finalmente prevalecerá sobre los motores de descarga del acelerador (GPU, FPGA, procesadores de tipo celular). y FP ASIC), sobre el que escribí en septiembre. Su punto clave era que las CPU ofrecían una mejor propuesta de valor a largo plazo que los aceleradores porque los procesadores estándar de la industria como x86 ofrecen costos de desarrollo de software más bajos y predecibles. Además, cualquier mejora de rendimiento demostrada por un acelerador eventualmente se erosionará a medida que las CPU continúen evolucionando, una suposición dudosa, pensé, ya que las GPU y FPGA están evolucionando al menos tan rápido como las CPU. Sin embargo, desde su punto de vista, un número relativamente pequeño de usuarios de HPC continuaría experimentando una aceleración durante los próximos años, pero finalmente volvería a la comodidad de la CPU.

Lo que no mencioné de esa conversación es que mientras Dracott hablaba con aceleradores basura, también logró disuadir a Larrabee, al menos como arquitectura de computadora científica. Aunque Larrabee ofrecía al menos una ISA compatible con x86, el problema, dijo, era que la implementación contiene algunos de los mismos inconvenientes que la GPU tradicional para computación científica, a saber, la falta de memoria ECC para proteger contra errores de software y la escasez de capacidad de punto flotante de doble precisión. Desde su punto de vista, esto evitaría que Larrabee o las GPU se implementen de manera más general en la informática de alto rendimiento. «Pero», agregó Dracott, «estamos trabajando en productos que satisfagan esa necesidad».

En este punto, la naturaleza de esos productos es un misterio. Pero Dracott dijo que «será posible tener productos que combinen pequeños núcleos de IA y grandes núcleos de IA que serían más adecuados para algunas cargas de trabajo de HPC». Para decirlo suavemente, la arquitectura probablemente tendrá muchos de los atributos de Larrabee, es decir, una arquitectura x86 de muchos núcleos con caché L1 y L2 completamente consistente. Al menos algunos de estos núcleos contendrán unidades SIMD anchas similares al diseño de Larrabee, pero esas unidades admitirán una gran cantidad de potencia de punto flotante de 64 bits y serán totalmente compatibles con IEEE 754. Además, en lugar de memoria tipo GDDR, la memoria DDR es compatible con ETC. En resumen, sería un procesador vectorial x86.

Cuando hablé con Stephen Wheat en la Austin Supercomputing Conference el mes pasado, reiteró la visión del universo basada en CPU de Dracott (e Intel). Wheat sugirió que si las funciones de aceleración, como el procesamiento de vectores, se usan más ampliamente, migrarán naturalmente a la CPU. Existe un precedente histórico para tal posición. Antes del chip 80486, las operaciones de punto flotante se realizaban en coprocesadores externos (la serie x87). A fines de la década de 1980, Intel decidió que las operaciones de FP eran lo suficientemente genéricas como para garantizar espacio de transistores en la CPU.

La razón fundamental detrás de la integración de funciones es que es poco probable que diferentes motores de silicio se muevan individualmente y mantengan un perfil de rendimiento equilibrado sin estar vinculados a una arquitectura unificada. Esto encaja perfectamente con la estrategia corporativa de Intel, donde la CPU x86 ISA es el denominador común en todas las industrias de TI: escritorio, móvil, empresarial, HPC y, si Larrabee tiene éxito, juegos y visualización.

Entonces, ¿es hora de integrar también el procesamiento de vectores pesados? “No es tan lejano en el futuro donde las cosas que hacen estas cosas [accelerators] atractivo puede convertirse en una parte integral del propio procesador «, ofreció Wheat.

El mercado de esta familia de chips no estará necesariamente impulsado por HPC basado en servidor. Intel tiene toda una estrategia de computación basada en modelos, llamada RMS (PDF), que requiere muchos teraflops. RMS abarca una gama de aplicaciones avanzadas, desde la representación en tiempo real hasta la gestión de carteras, y algunas de ellas se ejecutarán en plataformas de escritorio y móviles.

La compañía ya está comenzando a construir una base de software para tales aplicaciones con Intel Parallel Studio. Lanzado como beta esta semana, Intel Parallel Studio es un conjunto de herramientas y bibliotecas para desarrolladores de Windows C / C ++ que admite Threading Building Blocks (TBB), OpenMP, auto-vectorización y otras ventajas de programación paralela. Se basa en el concepto de «escalamiento hacia adelante», la nomenclatura de Intel para el escalado automático de aplicaciones para arquitecturas multinúcleo / muchos núcleos.

La idea es que los mismos programas construidos inicialmente para Nehalem de cuatro núcleos puedan escalar de forma transparente hasta Nehalem de 8 núcleos, Larrabees manycore y todos sus descendientes. El lenguaje de búsqueda de Intel para el cálculo del rendimiento de múltiples núcleos, Ct, probablemente se producirá en la oferta de software de la compañía en algún momento cuando estos productos de múltiples núcleos comiencen a salir a la calle. Si todo va según lo planeado, para 2015, manycore x86 será el tipo de procesador dominante y la programación paralela será la norma.

No te olvides compartir en tu Facebook para que tus amigos lo flipen

??? ? ? ???

Comparte