Aspectos destacados de la investigación SC13: DNS petascal de flujo de canal turbulento - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Aspectos destacados de la investigación SC13: DNS petascal de flujo de canal turbulento

Hola de nuevo. Yo soy Simón Sánchez y hoy vamos a hablar sobre Aspectos destacados de la investigación SC13: DNS petascal de flujo de canal turbulento

Ya sea un automóvil en la autopista, un avión que vuela por el aire o un barco en el océano, todos estos sistemas de transporte se mueven a través de fluidos. Y en casi todos los casos, el fluido que fluye alrededor de estos vehículos será turbulento.

Con más del 20% del consumo mundial de energía gastado en transporte, la gran fracción de energía gastada en el movimiento de mercancías y personas que está mediada por turbulencias rodeadas de paredes es un componente importante del balance energético de la nación. Sin embargo, a pesar del impacto energético, los científicos no tienen un conocimiento suficientemente detallado de la física de los flujos turbulentos para permitir predicciones fiables de la sustentación o resistencia de estos sistemas.

Para investigar la física de los flujos turbulentos delimitados por paredes, un equipo de científicos de la Universidad de Texas está llevando a cabo la simulación numérica directa (DNS) más grande de la historia de turbulencias rodeadas por paredes en Ret = 5200. Con 242 mil millones de grados de libertad, esta simulación es quince veces más grande que el canal DNS anteriormente más grande de Hoyas y Jiménez, realizado en 2006.

En un DNS de turbulencia, las ecuaciones de movimiento de fluidos (las ecuaciones de Navier-Stokes) se resuelven, sin ningún modelo, con resolución suficiente para representar todas las escalas de turbulencia. En general, los campos de datos tridimensionales completos de flujo turbulento son difíciles de obtener experimentalmente. Por otro lado, las simulaciones por computadora proporcionan datos exquisitamente detallados y altamente confiables, que han llevado a una serie de descubrimientos sobre la naturaleza de la turbulencia delimitada por paredes.

Sin embargo, el uso de DNS para estudiar flujos de alta velocidad se vio obstaculizado por el importante esfuerzo computacional de las simulaciones. Resolver todas las escalas esenciales de turbulencia introduce enormes requisitos de memoria y computación, lo que requiere que el DNS se ejecute en las supercomputadoras más grandes. Por esta razón, DNS es un problema de HPC desafiante y es una aplicación de uso común para evaluar el rendimiento de los sistemas Top-500. Debido al gran gasto de ejecutar un DNS, la eficiencia de cálculo mejorada permite la simulación de escenarios más realistas (números de Reynolds más altos y dominios más grandes) de lo que sería posible de otra manera.

Vista de vórtice de flujo turbulento

MK (Myoungkyu) Lee, el desarrollador principal del nuevo código DNS utilizado en las simulaciones, presentará los resultados de varias optimizaciones de software durante la sesión de aplicaciones de escala extrema en SC13, el martes 19 de noviembre, de 1:30 pm a 2:00 pm. La presentación detallará los resultados de escalar en una variedad de plataformas Top-500, como Lonestar y Stampede del Centro de Computación Avanzada de Texas, Blue Waters del Centro Nacional para Aplicaciones de Supercomputación y Blue Gene / Q Mira de Argonne Leadership Computing Facility, donde se encuentra Se realizó una simulación científica.

Los resultados muestran que el rendimiento depende en gran medida de las características de la red de comunicación y del ancho de banda de la memoria en lugar del rendimiento de un solo núcleo. En Blue Gene / Q, por ejemplo, el código muestra una eficiencia paralela a gran escala de alrededor del 80% con 786K núcleos en comparación con el rendimiento con 65K núcleos. El caso de referencia más grande utiliza 2,3 billones de puntos de cuadrícula y el requisito de memoria correspondiente es de 130 Terabytes.

El código se desarrolló utilizando métodos espectrales de Fourier, que generalmente se prefieren para DNS turbulentos debido a las propiedades de resolución superior, a pesar de la necesidad algorítmica resultante de comunicaciones costosas. La optimización se realizó para abordar varios problemas importantes: eficiencia del álgebra matricial de bandas lineales, reutilización de caché y acceso a la memoria, eficiencia de subprocesos y comunicación para la transposición de datos globales.

Se ha desarrollado un solucionador de álgebra lineal especial, basado en una estructura de datos de matriz personalizada en la que los elementos distintos de cero se mueven a elementos que de otro modo estarían vacíos, reduciendo los requisitos de memoria a la mitad, lo cual es importante para la gestión de la caché. Además, se descubrió que los compiladores optimizan de manera ineficiente las operaciones de bajo nivel en elementos de la matriz para la descomposición de LU. Como resultado, los bucles se desenrollaron manualmente para mejorar la reutilización de los datos almacenados en caché.

Velocidad de flujo (lados) y esfuerzo cortante de la pared (parte superior) del flujo turbulento entre dos placas paralelas

La FFT, el reordenamiento de los datos de los nodos y el avance de tiempo se combinaron con OpenMP para mejorar el rendimiento de un solo nodo. Estos fueron muy efectivos, con el código demostrando una escalabilidad OpenMP casi perfecta (99%).

La charla también discutirá cómo reemplazar la biblioteca existente para 3D Global Fast Fourier Transforms (P3DFFT) con una nueva biblioteca desarrollada utilizando la biblioteca FFTW 3.3-MPI y conducir a un rendimiento de comunicación sustancialmente mejorado.

La simulación científica completa utilizó 300 millones de horas base en BG / Q Mira de ALCF del Programa de Ciencia Temprana del Departamento de Energía y el programa Impacto Computacional Innovador e Innovador 2013 (INCITE). Cada archivo de reinicio generado por simulación tiene un tamaño de 1,8 TB, con aproximadamente ochenta de estos archivos almacenados para su procesamiento posterior y una investigación a largo plazo. El posprocesamiento de esta gran cantidad de datos también es un desafío para la supercomputación.

Información de presentación

Título: Simulación numérica directa de Petascale de flujo de canal turbulento en núcleos de hasta 786K

Posición: Sala 201/203

Sesión: Aplicaciones a gran escala

Hora : Martes 19 de noviembre, de 13:30 a 14:00

Locutor: MK (Myoungkyu) Lee

Programador SC13: http://sc13.supercomputing.org/schedule/event_detail.php?evid=pap689

De

MK (Myoungkyu) Lee es estudiante de doctorado en el Departamento de Ingeniería Mecánica de la Universidad de Texas en Austin.
[email protected]

Nicolás Malaya es investigador del Centro de Ingeniería Predictiva y Ciencias Computacionales (PECOS) en el Instituto de Ingeniería y Ciencias Computacionales (ICES) de la Universidad de Texas en Austin.
[email protected]

Robert D. Moser tiene la Cátedra WA «Tex» Moncrief Jr. en Ingeniería y Ciencia Computacional y es Profesor de Ingeniería Mecánica en Sistemas de Fluidos Térmicos. Es director del Centro ICES de Ingeniería Predictiva y Ciencias Computacionales (PECOS) y Subdirector del Instituto de Ingeniería y Ciencias Computacionales (CIEM).
[email protected]

Deberías compartir en una historia de tu Instagram para que tus amigos opinen

??? ? ? ???

Comparte