Vuelve a visitar el muro de la memoria - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Vuelve a visitar el muro de la memoria

Hola de nuevo. Yo soy Simón Sánchez y en el día de hoy vamos a hablar sobre Vuelve a visitar el muro de la memoria

Mientras los primeros chips de servidor Intel Nehalem EP se preparan para su debut, los usuarios de HPC en particular están ansiosos por probar el nuevo diseño de alto rendimiento de Intel. La nueva arquitectura incorpora QuickPath Interconnect (QPI) y controladores de memoria integrados, una configuración que debería ser especialmente adecuada para aplicaciones con uso intensivo de memoria.

Como mencioné anteriormente, el «muro de la memoria» se ha convertido en uno de los problemas más preocupantes en HPC. Durante las últimas dos décadas, el rendimiento de la memoria ha ido perdiendo terreno frente al rendimiento de la CPU. De 1986 a 2000, la velocidad de la CPU mejoró a una tasa anual del 55 por ciento, mientras que la velocidad de la memoria solo mejoró en un 10 por ciento. Con las velocidades de reloj estancadas, los fabricantes de chips han recurrido a más núcleos, pero en todo caso, esto solo ha provocado que se amplíe la brecha de rendimiento de la CPU a la memoria. Un reciente ella estudia Sandia destacó la inutilidad de lanzar más núcleos al problema.

Los procesadores Nehalem, sin embargo, deberían proporcionar algún alivio, aunque sea temporalmente. Los próximos chips EP de cuatro núcleos para servidores de dos sockets tendrán controladores de memoria DDR3 integrados, lo que según Intel aumentará el ancho de banda de la memoria en un 300-400% sobre los actuales procesadores Xeon de clase «Penryn». No se ha verificado el rendimiento exacto, pero los nuevos controladores DDR3 deberían proporcionar un ancho de banda de memoria en el rango de 32-35 GB / segundo por socket. Este debería ser un gran paso adelante para muchas aplicaciones relacionadas con la memoria.

Desafortunadamente, después de Nehalem, Intel probablemente no podrá duplicar otro aumento de rendimiento de memoria de una magnitud similar durante algún tiempo. Es posible que DDR4 tenga el doble de rendimiento en bruto que DDR3, pero no debería aparecer hasta 2012. Hay arquitecturas de memoria más exóticas en la mesa de dibujo, pero ningún fabricante se ha comprometido con una hoja de ruta.

Sin embargo, las GPU son una historia diferente. Todos estos chips se basan en el paralelismo de datos, por lo que la arquitectura de la memoria se diseñó para un rendimiento paralelo desde el principio. Para las plataformas de procesamiento GPGPU como NVIDIA Tesla y AMD FireStream, el hardware viene con una cantidad sustancial de memoria muy rápida para que grandes cantidades de cálculos se puedan realizar localmente, sin tener que acceder continuamente a la memoria del sistema.

En la actualidad, puede obtener una GPU NVIDIA Tesla con 4 GB de memoria (GDDR3) a 102 GB / segundo de ancho de banda. Claro, esta es la memoria gráfica, por lo que debe lidiar con la falta de corrección de errores, pero con alrededor de tres veces el rendimiento de la memoria disponible para un procesador Nehalem, las GPU pueden ofrecer un respiro del muro de la memoria. El equilibrio más favorable del rendimiento de la memoria de la GPU es una de las razones por las que los usuarios han podido acelerar sus aplicaciones de datos paralelos en un orden de magnitud o dos.

Sin embargo, la entrada de Nehalem en el mercado de servidores HPC se convertirá en la gran historia de este año. A pesar del aumento vertiginoso de las GPU en el mundo de la informática en general durante los últimos años, la mayoría de los usuarios de HPC siguen utilizando clústeres basados ​​en x86. Según IDC, menos del 10% de los sitios de usuarios de HPC encuestados usaban procesadores alternativos (la mayoría de los cuales, supongo, eran GPU y procesadores Cell) y no han visto esos números cambiar drásticamente en el corto plazo.

Pero el muro de la memoria será inexorable. El chip Nehalem EX de ocho núcleos está en proceso y se espera que se lance en la segunda mitad de 2009. Con ocho núcleos, las aplicaciones que consumen mucha memoria pueden no ser adecuadas para esta plataforma. Fue en el nivel de ocho núcleos que el estudio Sandia experimentó una caída real en el rendimiento. Existe mucha evidencia anecdótica de que una variedad de aplicaciones de HPC están experimentando una caída en el rendimiento de las aplicaciones a medida que migran de solo dos a cuatro núcleos.

Además, considerando el oneroso modelo de licencias de software de procesador multinúcleo utilizado por muchos ISV y las conocidas dificultades del desarrollo de software multiproceso, las CPU multinúcleo pueden no ser el camino al nirvana de HPC después de todo. Pensando con optimismo, sin embargo, es muy posible que encontremos un camino alrededor del muro de la memoria y todos los demás obstáculos para la computación paralela. Pero es probable que la solución provenga de considerar el problema de una manera poco convencional.

Como recientemente el editor de TI Tim O’Reilly el escribio: “El futuro no será como el pasado. Además, no será como ningún futuro que imaginamos. Qué maravilloso, si tan sólo estuviéramos dispuestos a aceptarlo. «

No te olvides compartir en tu Facebook para que tus colegas lo lean

??? ? ? ???

Comparte