El inicio usa compresión de datos para acelerar las aplicaciones

Hola y mil gracias por leerme. Te habla Simón Sánchez y esta vez vamos a hablar sobre El inicio usa compresión de datos para acelerar las aplicaciones

Samplify Systems, con sede en Silicon Valley, ha lanzado una tecnología de aceleración de aplicaciones diseñada para acelerar el código que proporciona una gran cantidad de datos numéricos. Pero en lugar de lanzar un hardware más grande y más rápido al problema, la compañía apunta a hacer que los programas sean más rápidos optimizando el flujo de datos entre los núcleos de procesamiento y el mundo exterior.

Samplify, cuyas raíces están en la compresión de señales, ha extendido la tecnología para abordar todas las aplicaciones numéricamente intensivas. Para los usuarios de HPC, el corazón de Samplify está definitivamente en el lugar correcto. En la informática de alto rendimiento, la aceleración de aplicaciones es la sed que nunca se puede saciar.

El problema de desempeño actual en la industria está relacionado con proyectos multinúcleo. Los procesadores se están volviendo más poderosos en un clip de la Ley de Moore gracias a la proliferación de núcleos, mientras que el ancho de banda de subsistemas externos como la memoria y la E / S aumenta mucho más lentamente (y en pasos discretos). Este desequilibrio es la razón principal por la que las aplicaciones de HPC suelen utilizar solo una pequeña fracción de su hardware host.

Por ejemplo, un código científico llamado ECCO (Estimación de la circulación y el clima del océano), una de las aplicaciones del laboratorio en la supercomputadora Pléyades de la NASA, utiliza solo alrededor del 1,4 por ciento del rendimiento máximo de 1,3 petaflops de la máquina. Esto se debe principalmente al hecho de que las CPU pasan la mayor parte de su tiempo esperando perezosamente que lleguen los datos. Desafortunadamente, este escenario no es muy anómalo. Segundo un estudio de investigación en la NASA, la mayoría de las aplicaciones en las Pléyades tienen un rendimiento sostenido entre el 3 y el 8%.

Estas severas ineficiencias son las que llevaron a Samplify a traer su oferta de aceleración de aplicaciones, conocida como APAX. En pocas palabras, APAX comprime los datos numéricos (tanto enteros como de coma flotante) que fluyen a través de un sistema, aumentando así el rendimiento de los datos. Y lo hace de forma transparente para la aplicación.

La tecnología se ofrece en forma de hardware y software y se puede implementar de diversas formas. En particular, la tecnología de compresión se puede insertar en todos los cuellos de botella habituales en un sistema informático (memoria, E / S, redes y almacenamiento) para atacar los cuellos de botella de las aplicaciones en el origen.

Según Al Wegener, fundador de Samplify y CTO, la mayoría de los usuarios de HPC desconocen que hay una cantidad significativa de bits que pueden extraerse de sus códigos. En la cultura actual de la supercomputación, la solución tradicional a las limitaciones de ancho de banda de datos ha sido el sobreaprovisionamiento de hardware. «Todos los clientes de HPC con los que hablamos nunca pensaron en usar la compresión para sus aplicaciones», dijo Wegener a Calendae.

La tecnología APAX admite esquemas de compresión sin pérdidas y con pérdidas. En APAX, el esquema sin pérdidas generalmente logra una compresión de al menos 2: 1, duplicando efectivamente el ancho de banda en el punto de estrangulamiento esperado. Con los esquemas con pérdida, que están bajo el control del usuario, la compresión APAX puede alcanzar fácilmente 4: 1 y hasta 8: 1.

En este caso, el usuario debe tener un poco de cuidado, ya que los patrones con pérdida se basan en eliminar parte de la precisión numérica. En general, los programadores de aplicaciones tienden a ser un poco vagos con la precisión, prefieren usar tipos de datos genéricos en su código y gravitan hacia el punto flotante de doble precisión. Pero convertir entradas enteras de 12 bits en valores de punto flotante de 64 bits por conveniencia no aumenta mágicamente la precisión de los resultados y termina desperdiciando muchos bits. Al trabajar con clientes de prueba, Samplify ha descubierto que la mayoría de las aplicaciones pueden tolerar una compresión con pérdida en el rango de 4: 1 a 6: 1 antes de que los resultados comiencen a divergir.

Desde el punto de vista del rendimiento por vatio, el hardware APAX es probablemente la forma más eficiente de hacerlo. Por ejemplo, si un fabricante de chips quisiera poner compresión en el diseño de su controlador de memoria, simplemente licenciaría el bloque de IP APAX (un par de cientos de puertas lógicas) de Samplify.

Una vez en el controlador, la lógica de compresión, junto con los controladores compatibles, comprimiría los bits enviados por los núcleos de cómputo de tal manera que todos los datos numéricos se almacenan en la DRAM en un formato comprimido. Al leer de la memoria, la misma lógica descomprime los datos antes de transferirlos de nuevo al silicio para el procesamiento de números. Suponiendo una compresión 2: 1, el ancho de banda de la memoria para todo el tráfico de datos numéricos se duplicaría. Convenientemente, también duplicaría la memoria efectiva.

En un entorno HPC, esto puede aumentar rápidamente. Wegener ofrece el caso de los dispositivos GPU Tesla de NVIDIA. Con compresión 2: 1, los 6 GB de memoria GDDR5 de la tarjeta GPU se convierten en 12 GB de almacenamiento real. Del mismo modo, los 150 GB / seg de ancho de banda se convierten en 300 GB / seg. «Creo que sería un gran problema», dice Wegener.

Otros posibles objetivos de la tecnología de compresión serían los adaptadores de red, como las NIC InfiniBand o Ethernet, los controladores de almacenamiento y los chips Southbridge. Junto con los controladores modificados, los ASIC de compresión máxima podrían aumentar el rendimiento de los datos en un sistema, clúster o incluso un centro de datos completo.

Para aplicaciones HPC en hardware existente, el método más simple es insertar el software APAX en aplicaciones existentes o envolverlo en bibliotecas MPI. Esto podría ser particularmente útil en una infraestructura en la nube más genérica, como la que ofrece Amazon, donde la capacidad y la topología de la red son mucho menos propicias para la comunicación HPC que una supercomputadora especialmente diseñada.

Si bien la tecnología de Samplify no es una panacea para todos estos cuellos de botella de datos, tiene el potencial de afectar significativamente el rendimiento y el almacenamiento. En este momento, la empresa está recopilando pruebas de la tecnología. Según Wegener, APAX ha sido validado por dos inversores de Samplify: Schlumberger, una empresa de exploración de petróleo y gas, y Mamiya, un fabricante japonés de cámaras digitales de alta gama. En el caso de Schlumberger, la tecnología se utiliza en su encarnación de software, mientras que Mamiya ha incorporado APAX en sus chips FPGA. Se están realizando más ensayos con clientes de sísmica y multifísica, pero la empresa no está dispuesta a dar nombres en este momento.

Samplify predice un mercado para APAX en computación en la nube y alto rendimiento, así como en el otro extremo del espectro de TI en dispositivos de computación móvil y electrónica de consumo. La compañía estima un mercado direccionable total de $ 700 millones para 2014: $ 370 millones para bloques APAX IP (Verilog RTL) en 1.800 millones de dispositivos y $ 330 millones para software APAX en 16.7 millones de núcleos.

A partir de esta semana, la tecnología APAX está lista para enviarse como software. El bloque de IP de hardware estará disponible para licenciamiento a mediados de año. El precio no fue revelado.

Deberías compartir en una historia de tu Instagram para que tus colegas lo consulten

??? ? ? ???

Comparte