Llegar a exaescala - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Llegar a exaescala

Hola de nuevo. Yo soy Simón Sánchez y esta vez hablaremos sobre Llegar a exaescala

A medida que la barrera de la exaescala se acerca cada vez más, los expertos de todo el mundo están centrando su atención en permitir este importante avance. La Escuela de Ingeniería y Ciencias Aplicadas de Harvard ofrece una inmersión verdaderamente profunda en el tema. La edición de verano de 2014 del instituto de «Temas» analiza de cerca cómo está progresando la supercomputación.

En función artículo «Creado para la velocidad: diseño para computadoras a exaescala», Brian Hayes considera toda la ciencia asombrosa que se habilitará si solo la computadora es lo suficientemente rápida.

Hayes explica que el campo de la hemodinámica está listo para un gran avance, en el que un cirujano podría realizar una simulación detallada del flujo sanguíneo en las arterias de un paciente para identificar la mejor estrategia de reparación. Sin embargo, actualmente, simular un solo segundo de flujo sanguíneo lleva unas cinco horas incluso en la supercomputadora más rápida. Para tener un efecto verdaderamente transformador en la medicina, los científicos y los profesionales necesitan computadoras que sean mil veces más rápidas que la cosecha actual.

Llegar a esta siguiente etapa de la informática está en la parte superior de la lista de prioridades de SEAS. Hayes escribe que los grupos de ciencia e ingeniería de la escuela están contribuyendo a proyectos de software y hardware para apoyar este objetivo, mientras que los investigadores en dominios como la climatología, la ciencia de los materiales, la biología molecular y la astrofísica se están preparando para usar este poderoso recursos.

A partir de aquí, Hayes describe los numerosos desafíos que hacen de la exaescala un desafío más oneroso que los hitos anteriores de 1000x. Durante un tiempo, los fabricantes de chips han dependido del aumento de las frecuencias de reloj para mejorar el rendimiento, pero esta era ha terminado.

«El límite de velocidad para las computadoras modernas ahora lo establece el consumo de energía», escribe Hayes. «Si todos los demás factores se mantienen constantes, la electricidad necesaria para hacer funcionar un chip de procesador aumenta a medida que el cubo de la frecuencia del reloj – duplicar la velocidad da como resultado un aumento de ocho veces en la demanda de energía».

Reducir los transistores y colocar más núcleos en cada chip (multinúcleo) ha ayudado a aumentar el número total de operaciones por segundo desde aproximadamente 2005. Sin embargo, obviamente existe una limitación fundamental sobre cuán pequeño puede ser el tamaño de la característica antes de que la confiabilidad se vuelva insostenible.

Arquitectónicamente, los sistemas pasaron de hardware personalizado en la década de 1980 a componentes estándar de vainilla en las décadas de 1990 y 2000. Ahora hay un regreso a las tecnologías especializadas nuevamente. El primer petaflopper, Roadrunner, utilizó un diseño de CPU híbrido que funcionaba en conjunto con coprocesadores Cell BE especializados. Ahora, la mayoría de las mejores supercomputadoras se basan en una arquitectura heterogénea, utilizando una combinación de CPU y aceleradores / coprocesadores.

Los desafíos no se tratan solo de hardware. Hanspeter Pfister, un profesor de ciencias de la computación de Wang y director de IACS que fue entrevistado por Hayes, cree que llegar a la exaescala requerirá fundamentalmente nuevos modelos de programación. Pfister señala que el benchmark LINPACK es el único programa capaz de evaluar y clasificar máquinas a toda velocidad. Otro software solo puede explotar el 10 por ciento del potencial del sistema. También existen problemas con los sistemas operativos, los sistemas de archivos y el middleware que conectan bases de datos y redes.

Pfister también es bastante escéptico sobre el futuro de herramientas de programación como MPI y CUDA. «No podemos pensar en mil millones de núcleos en CUDA», dice. “Y cuando surja el próximo protocolo, sé en mi corazón que no será MPI. Estamos más allá de la capacidad humana para asignar y optimizar recursos ”.

Algunos creen que la única solución sostenible para la informática de escala extrema es llevar a la gente de hardware y software a la misma habitación. Este enfoque, llamado «co-diseño» ayudará a cerrar la brecha entre lo que los usuarios quieren y lo que los fabricantes pueden ofrecer. El Departamento de Energía de Estados Unidos ha establecido tres centros de codiseño para facilitar este tipo de enfoque.

El DOE de EE. UU. Originalmente tenía la intención de colocar una máquina de exaescala alrededor de 2018, pero ese momento se ha deslizado principalmente debido a la falta de voluntad política para financiar el esfuerzo. Desde entonces, 2020 se ha considerado un objetivo, pero también podría ser demasiado optimista. Un dato que respalda la necesidad de llegar a exaescala lo antes posible es la necesidad de realizar ensayos nucleares virtuales en apoyo de la gestión de inventarios. Este programa por sí solo, según un experto entrevistado para la pieza, es suficiente para asegurar que las máquinas a exaescala estén construidas. Hay otras aplicaciones que también podrían considerarse críticas para la seguridad nacional, como los modelos climáticos.

Ver el articulo completo aquíy el problema completo aquí.

Deberías compartir en tus redes sociales para que tus amigos lo lean

??? ? ? ???

Comparte