Para AMD, todos los caminos conducen a la fusión CPU-GPU - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Para AMD, todos los caminos conducen a la fusión CPU-GPU

Hola de nuevo. Soy Simón Sánchez y hoy vamos a hablar sobre Para AMD, todos los caminos conducen a la fusión CPU-GPU

Uno de los aspectos más interesantes de la moda de la informática GPU es la diversidad de soluciones que están surgiendo de los proveedores de chips. NVIDIA lidera actualmente el grupo con sus GPU Tesla con arquitectura CUDA, diseñadas específicamente para HPC. Intel, con la reintroducción de su tecnología Larrabee (ahora conocida como la arquitectura «Many Integrated Core» (MIC), está siguiendo el modelo sin GPU de computación de datos en paralelo. Esto deja a AMD, con su ruta dual FireStream GPU para el » Stream computing «y la tecnología CPU-GPU Fusion para todo lo demás.

Pero es la tecnología Fusion lo que distingue a AMD de sus competidores fabricantes de chips. Debido a la adquisición de ATI en 2006, la compañía se destaca como un proveedor de procesadores con tecnologías maduras tanto para CPU como para GPU. Esto hace que la integración de las dos arquitecturas en la misma pieza de silicio sea una elección natural para la empresa.

AMD, por supuesto, buscaba aprovechar esta ventaja desde el principio. Originalmente planearon lanzar las primeras partes Fusion en 2009, pero la complejidad de incorporar ATI nuevamente a la compañía y la recesión subsecuente ralentizaron el esfuerzo considerablemente, retrasando la hoja de ruta dos años. AMD recién ahora se está preparando para lanzar sus primeros procesadores Fusion, también conocidos como unidades de procesamiento acelerado (APU), en 2011.

Estos primeros productos de CPU-GPU están destinados al mercado de computadoras de escritorio y portátiles para mejorar la experiencia de computación visual para los usuarios de PC (principalmente a través del marco DirectX de Microsoft). Pero los usuarios técnicos de computadoras están comenzando a ver la arquitectura Fusion como una forma de acercar mucho más el procesamiento paralelo estilo GPU a la CPU.

Hasta la fecha, todo el procesamiento serio de la GPU se ejecuta en procesadores gráficos discretos de gama relativamente alta que están conectados a un sistema de CPU host a través de un enlace PCI-express (PCIe). Este es el caso de los productos informáticos GPU de NVIDIA y AMD, Tesla y FireStream respectivamente. Aunque algunas aplicaciones de HPC han experimentado mejoras de rendimiento del orden de 10x a 1,000x, la sobrecarga de mover datos de un lado a otro a través del enlace PCIe y el software torpe utilizado para admitir este modelo sugiere que la aceleración fuera del chip es solo el primer capítulo en la historia de la computación GPU.

La semana pasada, la Northeastern University, en Boston, celebró una día de investigación académica para computación GPU Difundir la palabra sobre cómo se utiliza para aplicaciones de procesamiento técnico en la comunidad investigadora. El evento se organizó en asociación con la oficina de investigación externa de AMD como parte de la concienciación entre otros académicos y para presentar la visión de la empresa de computación heterogénea y sus próximos productos CPU-GPU. Calendae habló con Dave Kaeli, director del Laboratorio de Investigación de Arquitectura de Computadoras de la Northeastern University, quien pronunció el discurso de apertura del evento «Explotación de CPU / GPU heterogéneas», en el que habló sobre algunas de sus experiencias con la tecnología.

Gran parte del trabajo de Kaeli se centra en el uso de GPU para aplicaciones de imágenes biomédicas, trabajo financiado por la NSF y la propia AMD. Hay dos clases de problemas en los que está trabajando. El primero es para biopsias guiadas por imágenes, donde el procesamiento visual en tiempo real y el gran ancho de banda de datos son los principales requisitos. El otro es para la reconstrucción digital de una sola imagen, que puede llevar decenas de horas, ciertamente no en tiempo real, pero es un tiempo crítico para ciertos escenarios médicos.

En el último caso, Kaeli utiliza una GPU ATI Radeon 5870, que cuenta con un rendimiento bruto de 2,72 teraflops (punto flotante de precisión simple). En comparación con una implementación de solo CPU, es posible un aumento de la velocidad de un orden de magnitud para este tipo de reconstrucción de imágenes. La detección de cáncer de mama y el bloqueo de las arterias coronarias son dos de las principales aplicaciones aquí, y en este caso, la paciente regresa a casa y luego regresa para una segunda consulta. Los plazos de entrega reducidos tienen el potencial de producir mejores resultados y reducir costos.

Algunos de los esfuerzos de Kaeli se han dirigido al desarrollo de bibliotecas de imágenes biomédicas basadas en GPU en OpenCL, un estándar de lenguaje abierto para el procesamiento paralelo entre GPU y CPU. Él dice que el trabajo ha llegado al punto en que ahora están comprometidos con un importante fabricante de equipos médicos para ayudar a diseñar los dispositivos de ultrasonido de próxima generación de la compañía. El plan es integrar GPU para admitir ultrasonido 3D de ultra alta resolución en un dispositivo portátil de bajo consumo.

Actualmente, el fabricante médico utiliza una combinación de FPGA y DSP para esta clase de dispositivos. Este diseño no solo amplía la potencia de una plataforma móvil, sino que la falta de una solución basada en productos básicos hace que la ruta de actualización sea problemática. Poder escribir la aplicación en un lenguaje como OpenCL, que es portátil a través de múltiples generaciones de silicio (sin mencionar los proveedores de chips), es una propuesta mucho más atractiva para los fabricantes.

Inicialmente, el dispositivo ultrasónico estará equipado con una GPU discreta, con la idea de migrar posteriormente a un procesador CPU-GPU. «La idea de pasar de una tarjeta gráfica de alto rendimiento a una GPU integrada a un chip Fusion híbrido y heterogéneo es muy interesante en este campo», explica Kaeli. “Esa es realmente la razón por la que estamos tan ocupados con AMD en este momento. Reconocemos que están brindando liderazgo en esta área en particular en este momento. «

Kaeli dice que el procesamiento heterogéneo tiene muchas características interesantes, tanto en términos de facilidad de codificación como desde una perspectiva de rendimiento energético. Desde la perspectiva del consumo de energía, los beneficios de la integración CPU-GPU se extienden a las aplicaciones informáticas tradicionales y técnicas. Sin embargo, para los códigos científicos, la tecnología de proceso actual (45 nm) limita el tamaño de la GPU que puede caber en el mismo dado que la CPU y, por lo tanto, el rendimiento final del chip. Pero a medida que la Ley de Moore hace su magia, una GPU de tamaño muy respetable podrá compartir la tuerca con una CPU.

Desde el punto de vista de un programador, tener CPU y GPU compartiendo la misma RAM es una gran mejora con respecto al modelo de memoria dividida con dispositivos discretos. Y la latencia asociada con el paso de datos entre dos dispositivos separados es mucho mejor (es decir, más baja) cuando la CPU y la GPU están en el mismo dado. Esto es especialmente cierto para las aplicaciones integradas en tiempo real, donde la latencia es particularmente crítica.

Kaeli también participa en una aplicación de simulador quirúrgico de formación médica. En este caso, el análisis de elementos finitos (FEA) se utiliza para simular el flujo sanguíneo, el corte, la tensión de la piel, etc. «No podemos hacer todo esto en una GPU», dice Kaeli. «Hay mucho que hacer en la CPU».

Además de la investigación de imágenes biomédicas y otras aplicaciones médicas, Kaeli está involucrado en el trabajo del compilador de GPU, desarrollando técnicas para mapeo de algoritmos eficientes en GPU y tecnología de virtualización que aprovecha múltiples GPU. Su equipo también está investigando compiladores cruzados que pueden tomar aplicaciones CUDA para GPU NVIDIA y convertir el código fuente a OpenCL. «De hecho, ya tenemos ejemplos prácticos», dice.

No te olvides compartir en tu Facebook para que tus colegas lo sepan

??? ? ? ???

Comparte