Diseño de chip más rápido con … chips más rápidos

Hola, ¿qué tal colega?. Soy Simón Sánchez y esta vez te voy a hablar sobre Diseño de chip más rápido con … chips más rápidos

Existe un caso de uso interesante para la computación con GPU escrito en EE Times esta semana. Uri Tal, fundador de Rocketick, una empresa israelí que ofrece software acelerado por GPU para la automatización del diseño electrónico (EDA),

Sin embargo, antes describió por qué las aplicaciones EDA no son tan buenas cuando se ejecutan en CPU. La mayor parte se centra en la falta de ubicaciones de datos que muestran estas aplicaciones. Las CPU dependen en gran medida de cachés grandes para evitar los costos de latencia significativos para acceder a la memoria principal. Pero debido a que los conjuntos de datos de EDA son demasiado grandes para almacenarlos en caché y el patrón de acceso de la aplicación es algo aleatorio, el ancho de banda de la memoria se convierte en un cuello de botella. Y a medida que los diseños de chips son cada vez más grandes y complejos, una arquitectura basada en caché probablemente no podrá ponerse al día.

No es así para las GPU, que se construyen teniendo en cuenta el paralelismo de datos y están conectadas a la memoria gráfica (GDDR5), que proporciona más ancho de banda que la memoria de grado CPU. Tal escribe:

Las GPU se adaptan perfectamente a los algoritmos de datos en paralelo con grandes conjuntos de datos. En las GPU desarrolladas más recientemente, hay más de mil núcleos de procesamiento, organizados en grupos SIMD. Todo lo que se requiere es iniciar varios millones de hilos independientes de corta duración que no tienen que comunicarse entre sí. La latencia de la memoria se puede ocultar perfectamente cambiando de subprocesos «en espera» a subprocesos «listos» de manera muy eficiente. En lugar de optimizar para la latencia de un solo subproceso, la optimización es para el rendimiento, la cantidad de subprocesos que se pueden procesar en un período de tiempo específico.

Pero convencer a EDA para que aproveche las GPU no es una maravilla. Se basa en la capacidad de paralelizar la aplicación para minimizar las dependencias entre todos los subprocesos. Tal dijo que necesitaban rediseñar tanto la estructura del software EDA como los algoritmos subyacentes para que esto sucediera.

Según él, el rediseño ha valido la pena, lo que ha dado como resultado simulaciones de chips de 10 a 30 veces más rápidas. Aún mejor, el software Rocketick puede ejecutarse en múltiples GPU y proporcionará automáticamente más rendimiento a medida que se implementen GPU más nuevas, más grandes y más rápidas.

Si bien no se menciona en el artículo de Tal, vale la pena mencionar que NVIDIA usa herramientas aceleradas por GPU para diseñar y probar su hardware. Al menos en 2010, NVIDIA estaba usando el software Agilent como parte del flujo de trabajo de diseño de chips, empleando un pequeño grupo de GPU interno. En ese momento, el fabricante de GPU estaba evaluando la oferta de Rocketick y los primeros resultados parecían «prometedores».

No te olvides compartir en tus redes sociales para que tus colegas opinen

??? ? ? ???

Comparte