El seminario se centra en el uso de aceleradores y computadoras basadas en Manycore para el avance de la ciencia. - Calendae | Informática, Electrónica, CMS, Ciberseguridad

El seminario se centra en el uso de aceleradores y computadoras basadas en Manycore para el avance de la ciencia.

Hola y mil gracias por leerme. En el teclado Simón Sánchez y en esta ocasión te voy a contar sobre El seminario se centra en el uso de aceleradores y computadoras basadas en Manycore para el avance de la ciencia.

En línea, en conferencias y en teoría, muchos procesadores centrales y el uso de aceleradores como GPU y FPGA se consideran la próxima gran revolución en la computación de alto rendimiento (HPC). Si pueden estar a la altura de su potencial, estos aceleradores algún día podrían transformar la forma en que se realiza la ciencia computacional, proporcionando mucha más potencia informática y eficiencia energética.

Y, de hecho, ya están ayudando a impulsar importantes proyectos de investigación científica, no agrupados en grandes sistemas, sino en un servidor a la vez. A principios de diciembre, un grupo de astrónomos, físicos y expertos en HPC se reunieron en el SLAC National Accelerator Laboratory cerca de San Francisco para discutir cómo las GPU y FPGA satisfacen sus necesidades específicas. El seminario de tres días fue coorganizado por el Laboratorio Nacional Lawrence Berkeley de Stanford, NERSC, SLAC y el Instituto Kavli de Astrofísica y Cosmología de Partículas (KIPAC).

El taller se organizó como parte de un esfuerzo continuo para desarrollar una infraestructura que permita problemas de datos de física y astronomía utilizando estas tecnologías emergentes. Hace más de un año, bajo el liderazgo de Horst Simon de LBNL, John Shalf y Hemant Shukla también de LBNL con Rainer Spurzem de la Academia China de Ciencias decidieron establecer una asociación de trabajo. El taller se llevó a cabo con un presupuesto ajustado con la ayuda de Tom Abel de KIPAC.

«Los grupos científicos participantes comenzaron con problemas desafiantes que requerían un desempeño paralelo para cumplir con los requisitos en tiempo real», dijo el coorganizador Shukla. «El enfoque eficaz para resolver problemas como la detección de frente de onda y la obtención de imágenes de radio en tiempo real es identificar los algoritmos subyacentes para acelerar y luego resolver conjuntos de problemas comunes».

Los problemas compartían un problema común: fuertes limitaciones en tiempo real. Una aplicación es resolver los desafíos en el control en tiempo real de los sistemas de óptica adaptativa para la astronomía terrestre de alta resolución. El segundo fue en conjuntos de radiotelescopios en ubicaciones remotas con energía limitada. En el segundo caso, los investigadores necesitaban la potencia de un sistema altamente paralelo, pero una computadora de grupo estándar en un rack requeriría más electricidad de la disponible. Usar la aceleración de la GPU fue solo el boleto.

«En lugar de comenzar con la tecnología y ver si un problema podía resolverse, como suele ser el caso, tuvieron un problema y encontraron la tecnología para resolverlo», dijo el coorganizador Shalf.

De cualquier manera, los científicos necesitaban un rendimiento del procesador más rápido y encontraron que las nuevas tecnologías, como las GPU y FPGA, proporcionaban las mejoras. Sus necesidades difieren de las de muchos otros investigadores, que buscan que los centros de HPC ejecuten sus aplicaciones en más procesadores en lugar de ejecutar sus aplicaciones más rápido.

«La dirección actual de la supercomputación no es satisfacer las necesidades de los investigadores que necesitan resolver el problema del mismo tamaño más rápido, en lugar de resolver un problema mayor a la misma velocidad», dijo Shalf.

En el taller, expertos de Asia, Europa y América del Norte se reunieron para compartir información sobre la resolución de problemas en esta área, así como para explorar y discutir el alcance y los desafíos de aprovechar todo el potencial de estas nuevas arquitecturas informáticas de alto rendimiento. . El taller atrajo a participantes de la academia y la industria en China, Francia, Alemania, Japón, Taiwán y Estados Unidos. Experimentos futuros como el Large Synoptic Survey Telescope, el Murchison Wide-File Array, el SETI de próxima generación y el Allen Telescope Array han participado en la definición de objetivos futuros, al igual que líderes de la industria como NVIDIA, AMD, Apple y Sun Microsistemas.

El asesor de la conferencia, Rainer Spurzem, de la Academia de Ciencias de China, citó la «mezcla ecléctica» de los asistentes como una adición al intercambio informativo de ideas y experiencias.

«Aunque la atención se ha centrado en aplicaciones en física y astronomía, es probable que las soluciones exploradas por los participantes tengan un impacto más amplio en disciplinas científicas y tecnológicas como salud, energía, aeroespacial y otras», dijo. dijo el co-organizador del taller Hemant Shukla de la División de Física del Laboratorio de Berkeley. “Estas nuevas técnicas emergentes podrían conducir a nuevos sistemas y software que utilicen tanto el silicio como la energía eléctrica de manera mucho más eficiente. A medida que avanzamos más allá de los sistemas de petaescala actuales, esa eficiencia es una necesidad «.

Otros grupos también se están reuniendo para explorar cómo estas tecnologías de procesadores emergentes pueden promover una amplia gama de aplicaciones científicas. El taller en SLAC se llevó a cabo dos semanas después de que la niña Consorcio híbrido multinúcleo se conocieron por primera vez en la conferencia SC09 (Supercomputing) en Portland, Oregon. Cofundado por los laboratorios nacionales de Berkeley Lab, Los Alamos y Oak Ridge, el consorcio busca abordar el desafío de rediseñar la mayoría de las aplicaciones científicas actuales para aprovechar los recursos proporcionados por los futuros sistemas híbridos multinúcleo.

«Si bien existe un entusiasmo considerable por el potencial de los sistemas multinúcleo y el aprovechamiento de su rendimiento para la ciencia computacional, lograr esto requerirá un gran esfuerzo tanto de los expertos en aplicaciones como de los desarrolladores de software», dijo Simon de LBNL. , uno de los tres miembros del consorcio del comité ejecutivo.

Posteriormente, Wei Ge de la Academia de Ciencias de China escribió a los organizadores: «Fue un seminario muy informativo y fructífero y muchas gracias nuevamente por su organización y amable invitación para nosotros».

Y algunos participantes ya esperaban con interés futuras asociaciones y la creación de recursos y comunidades.

«Obtuve mucha información e impresiones a lo largo del curso y estoy en el proceso de transferir esto a nuestra comunidad Sun», escribió Ferhat Hatay, quien trabaja en Compromisos estratégicos en Sun Microsystems. «Estamos muy interesados ​​en contribuir a los esfuerzos de colaboración con la experiencia, el interés y el apoyo de Sun, así como con nuestra base de clientes y usuarios».

—–

Ver http://www.lbl.gov/cs/html/manycore.html para el taller e http://computing.ornl.gov/HMC/index.html para el consorcio HMC.

Deberías compartir en en tu Twitter y Facebook para que tus amigos lo flipen

??? ? ? ???

Comparte