Tres años después, GPU Computing está alcanzando la madurez - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Tres años después, GPU Computing está alcanzando la madurez

Hola, ¿qué tal colega?. Te habla Simón Sánchez y hoy hablaremos sobre Tres años después, GPU Computing está alcanzando la madurez

Si ha estado leyendo esta publicación durante algún tiempo, estoy seguro de que ha notado cuánta tinta se ha derramado en la tarea de procesamiento de la GPU de NVIDIA. La razón es simple: la computación GPU de propósito general (GPGPU) se ha convertido en una tecnología revolucionaria en HPC, y NVIDIA es la compañía que la impulsa. Y si ha estado siguiendo nuestra cobertura reciente de la Conferencia de tecnología de GPU (GTC) de septiembre, obtendrá una idea bastante clara de por qué y cómo está sucediendo.

Pero la tecnología, y especialmente el negocio, aún se encuentra en sus primeras etapas. No fue hasta junio de 2007 que NVIDIA anunció sus primeros productos de GPU Tesla para procesamiento técnico. Aunque AMD introdujo en el mercado sus productos FireStream GPU en el mismo año, es NVIDIA la que ha marcado el ritmo en este mercado. En GTC, tuve la oportunidad de hablar con Andy Keane, quien ha dirigido la unidad Tesla de NVIDIA desde sus inicios. Durante nuestra conversación, ofreció su perspectiva sobre cómo ha evolucionado el negocio de computación GPU de la compañía durante los últimos tres años.

La primera pregunta que le hice fue si el negocio de Tesla estaba donde él pensó que estaría cuando comenzaron hace tres años. Aunque ha estado en medio de la tormenta, por así decirlo, Keane dijo que también está un poco sorprendido de lo lejos que ha llegado la tecnología en tan poco tiempo. «Sentí que empujamos la GPU más rápido de lo que esperaba», admitió.

Él atribuye mucho de esto al entusiasmo de la comunidad de desarrolladores y usuarios. Las características de alta gama reunidas en la generación Fermi actual, como el soporte para la memoria ECC y el rendimiento de doble precisión, siempre estuvieron en la hoja de ruta, dijo. Fueron insertados antes de lo esperado porque la comunidad los estaba pidiendo.

El primer clúster equipado con GPU Tesla se envió al Instituto Max Planck en 2008 para apoyar el trabajo del profesor Holger Stark en la comprensión de la estructura 3D de las «macromoléculas». Stark había estado usando GPU GeForce durante un tiempo, pero quería adaptar su trabajo a un clúster para acelerar el procesamiento de imágenes. Ese mismo año, se llevó a cabo la primera distribución de la nueva generación de Tesla (las GPU de la serie 10) en Tokyo Tech. Esas GPU, en este caso, 170 servidores Tesla S1070, se conectaron al sistema TSUBAME 1.2. Esa máquina se convirtió en la primera supercomputadora equipada con GPU en la lista TOP500.

Siguieron otras distribuciones de clústeres de Tesla. Según Keane, estas implementaciones más grandes sugirieron que el mundo necesitaba soporte ECC y mucha más precisión doble, características requeridas por la computación científica a gran escala. Los clientes también necesitaban un software controlador CUDA más sofisticado para optimizar la interfaz CPU-GPU. «Entonces, la gente que vende influye en el tipo de funcionalidad que pone en la GPU y el software», dijo Keane.

En este sentido, NVIDIA se ve a sí misma más como un catalizador para la comunidad que como un líder del mercado per se. Ciertamente, es concebible que algunas empresas ganen más dinero con los productos basados ​​en NVIDIA GPGPU que con la propia NVIDIA. Más allá de la simple HPC, la computación GPU se está empleando ahora en todo, desde la visión por computadora hasta la inteligencia empresarial. Al igual que la CPU, la GPU se encuentra ahora en ese territorio donde los desarrolladores se están adaptando al chip, y no al revés.

«No podríamos haber escrito la lista de aplicaciones que están aquí en GTC», me dijo Keane. “Algunos son obvios, como el reconocimiento de patrones y los gráficos. ¿Pero cosas como la investigación de neuronas? No lo hubiéramos logrado. Así que hay áreas en las que entraremos debido a la creatividad del desarrollador «.

NVIDIA cuenta con las próximas dos generaciones de GPU, Kepler y Maxwell, para mantener el impulso. Si bien las nuevas capacidades de procesamiento de GPU están en camino para estas arquitecturas, habrá un enfoque concertado en la eficiencia energética. Aunque las GPU ya tienen una relación FLOPS / vatio envidiable, los proveedores de sistemas no pueden acomodar dispositivos que consumen más energía que la cosecha de chips actual. Fermi Tesla tiene hoy una potencia de 225 vatios, que francamente es más de lo que la mayoría de los fabricantes de servidores se sienten cómodos. Por lo tanto, al igual que su competencia de CPU, NVIDIA se verá obligada a sacar dispositivos más potentes con la misma (o menor) envolvente térmica.

Para la supercomputación, esta será una característica clave, especialmente para aquellos que confían en las GPGPU como camino hacia la exaescala. Según Keane (pero no solo él), no se puede lograr una mejora de rendimiento de 1,000 veces en comparación con las computadoras actuales con técnicas antiguas, ciertamente no con transistores y escalado de voltaje, y probablemente no con muchos núcleos x86. El camino hacia computadoras más rápidas se hará indirectamente a través de menos energía, lo que resultará en más paralelismo, dijo Keane.

Pero lograr ese nivel de paralelismo en una CPU convencional es mucho más complicado que hacerlo en una GPU. Bill Dally, científico jefe de NVIDIA, cree que la arquitectura de la GPU es intrínsecamente superior en la entrega de más FLOPS / vatio que las CPU genéricas e incluso ha trazado un camino hacia la exaescala basada en extrapolaciones de la tecnología de la GPU.

Dejando a un lado la tecnología, todavía queda la pregunta de cómo NVIDIA hará que funcione el modelo de negocio para HPC. Keane admitió que su negocio Tesla no sería viable como empresa independiente. Dado el costo del diseño de semiconductores y el resto de la infraestructura requerida para respaldar el desarrollo del procesador, se requiere una amplia base de productos, dijo. Un dispositivo Tesla de $ 2,000 probablemente costaría $ 10,000 si se tomaran en cuenta todos los costos generales. Solo tiene que mirar al ahora desaparecido ClearSpeed ​​para ver la locura de tal modelo de negocio.

La forma en que NVIDIA hace este trabajo es amortizar los costos de investigación y desarrollo en un conjunto mucho mayor de productos, en este caso las ofertas de GeForce y Quadro. (Los productos Tegra utilizan un conjunto de tecnologías ligeramente diferente). Tesla está diseñado como un producto de gama alta, con más núcleos, más rendimiento de punto flotante y compatibilidad con ECC. El lado del consumidor necesita estas cosas. Pero dado que las tres unidades pueden compartir diseño y desarrollo, Keane puede extraer sus ventajas de HPC. «AMD tiene ese modelo, Intel tiene ese modelo, ahora NVIDIA tiene ese modelo», dijo.

Pero eso no significa que la compañía esté feliz de que Teslas siga siendo un negocio de nicho. Lejos de ahi. Keane prevé un mercado de volumen para sus GPU de gama alta más allá de la informática rigurosa de alto rendimiento. Por ejemplo, las computadoras que ejecutan el control del tráfico aéreo, el tráfico de Internet y los sistemas de facturación para una telecomunicación pueden beneficiarse del músculo de datos en paralelo de una GPU. Aunque en su mayoría invisibles, estas computadoras de «infraestructura» forman la columna vertebral de muchas empresas de TI, por no mencionar el gobierno. «El volumen de mercado real para un producto como Tesla está en las computadoras que no ves», dijo Keane.

Puedes compartir en una historia de tu Instagram para que tus amigos lo consulten

??? ? ? ???

Comparte