El lanzamiento de AI Compute Acceleration crea el chip mas

El lanzamiento de AI Compute Acceleration crea el chip más grande jamás creado para aplicaciones de aprendizaje profundo – Calendae

Hola, ¿qué tal colega?. En el teclado Jordi Oriol y hoy hablaremos sobre El lanzamiento de AI Compute Acceleration crea el chip más grande jamás creado para aplicaciones de aprendizaje profundo – Calendae

Para satisfacer las crecientes necesidades informáticas de la IA, la startup de IA con sede en California, Sistemas Cerebras, dio a conocer recientemente su primer elemento anunciado, que afirma ser el chip de IA más masivo jamás creado. Con una asombrosa medida de 46.225 mm2 (hasta 56,7 veces más grande que la unidad de procesamiento de gráficos más grande) y más de 1,2 billones de transistores, El motor de escala de obleas de Cerebras Systems es el semiconductor más grande jamás construido para aplicaciones de aprendizaje profundo.

El motor Wafer-Scale contiene aproximadamente 400.000 núcleos de álgebra lineal dispersos optimizados para IA de alto rendimiento. Estos núcleos alimentados por memoria local están conectados entre sí por una red de comunicación de malla fina, de gran ancho de banda, todo hardware y baja latencia a una velocidad de interconexión de 100.000 Pb / s. A diferencia de otros procesadores y GPU fabricados en obleas de silicio, el WSE de Cerebras es un solo chip interconectado en una sola oblea diseñada para manejar todos sus transistores. El WSE también aloja en chip Superrápido de 18 Gb y distribuido SRAM memoria entre núcleos en una jerarquía de un solo nivel. En comparación, el WSE tiene 3000 más memoria en chip y más de 10,000 veces el ancho de banda de memoria.

Diseñado para acelerar el trabajo de IA, la compañía dice que su motor a escala de obleas puede reducir el tiempo que lleva procesar datos complejos de meses a minutos.

«Todas las decisiones arquitectónicas se tomaron para optimizar el rendimiento para el trabajo de IA. Diseñado desde cero para el trabajo de IA, Cerebras WSE contiene innovaciones fundamentales que hacen avanzar el estado del arte al resolver desafíos técnicos de décadas que limitan Tamaños de chips como conectividad de celosía cruzada, rendimiento, suministro de energía y empaquetado. El resultado es que Cerebras WSE entrega, dependiendo de la carga de trabajo, cientos o miles de veces el rendimiento de las soluciones existentes con una pequeña fracción del consumo de energía. de poder y espacio «,

dice Andrew Feldman, director ejecutivo y fundador de Cerebras Systems.

Según la empresa, cuanto más grande, mejor; cuanto más grandes son los chips, menos tiempo se tarda en procesar la información y producir respuestas. La mejora del rendimiento del Wafer Scale Engine se debe en gran parte a su tamaño. Con un chip del tamaño de un iPad, el WSE es capaz de procesar información más rápido en menos tiempo, facilitando así varios paradigmas de inteligencia artificial como la reducción del «tiempo de comprensión» o el «tiempo de formación» dentro de bucle de red neuronal. La velocidad a la que un bucle de red neuronal puede aprender o entrenarse depende de la rapidez con la que las entradas se mueven a través del bucle como tal, cuanto más rápido se procesan las entradas a través del bucle de retroalimentación, más entradas recibe el bucle para unidades de tiempo y trenes de anillo más rápidos.

Gracias a su gran área de silicio, el WSE puede proporcionar más núcleos, más memoria cerca de los núcleos, lo que garantiza que los núcleos siempre estén ocupados realizando cálculos y más ancho de banda de latencia entre núcleos para una máxima eficiencia. Los núcleos SLA programables están diseñados básicamente para manejar la carga de trabajo de la red neuronal central como TensorFlow, Pytorch y otros.

En los últimos años, hemos visto a la Inteligencia Artificial pasar de un estado oscuro a una conciencia de alto nivel debido a los avances en el aprendizaje profundo. Con WSE ayudando a entrenar modelos en menos tiempo y con menos energía, los investigadores de aprendizaje profundo deberían poder explorar más ideas, probar hipótesis más rápido, usar más datos y resolver nuevos problemas.

Puedes compartir en en tu Twitter y Facebook para que tus colegas opinen

👇👇👇 😘 💪 👇👇👇