ENTREVISTA CON EL SUPERCOMPUTANTE LEYENDA JACK DONGARRA - Calendae | Informática, Electrónica, CMS, Ciberseguridad

ENTREVISTA CON EL SUPERCOMPUTANTE LEYENDA JACK DONGARRA

Hola y mil gracias por leerme. Te habla Simón Sánchez y hoy hablaremos sobre ENTREVISTA CON EL SUPERCOMPUTANTE LEYENDA JACK DONGARRA

por Martin Meuer, Prometeus GmbH

Jack Dongarra, director del Centro de Investigación en Tecnología de la Información (CITR) y el Laboratorio de Computación Innovadora (ICL) de la Universidad de Tennessee, ha sido una leyenda en el campo de la supercomputación durante veinte años: LINPACK, MPI y TOP500 están estrechamente vinculados a él.

Jack Dongarra dará la presentación principal el viernes 21 de junio de 2002 en la 17ª Conferencia Internacional de Supercomputadoras en Heidelberg, Alemania. El título de su discurso es: «Computación de alto rendimiento, cuadrícula computacional y bibliotecas numéricas».

Esta entrevista para Calendae fue realizada por Martin Meuer, Prometeus GmbH, Alemania.

Calendae: Jack, pertenece a los puntos de referencia y expertos en HPC más reconocidos del mundo. ¿Cuánto tiempo ha estado involucrado personalmente en la evaluación comparativa y el campo de HPC?

DONGARRA: El punto de referencia original de LINPACK es, en cierto sentido, un accidente. Así que supongo que esto me convierte en un «Benchmarker accidental». Originalmente fue diseñado para ayudar a los usuarios del paquete de software numérico LINPACK al proporcionar información sobre los tiempos de ejecución necesarios para resolver un sistema de ecuaciones lineales. El primer informe “LINPACK Benchmark” apareció como un apéndice en la Guía del usuario de LINPACK en 1979. El Apéndice de la Guía del usuario recopiló datos de rendimiento para una ruta de uso común en el paquete de software LINPACK. Los resultados se proporcionaron para un problema de matriz de tamaño 100, en una colección de computadoras ampliamente utilizadas (23 computadoras en total). Esto se hizo para que los usuarios pudieran estimar el tiempo requerido para resolver su problema de matriz por extrapolación.

Se han agregado más datos de rendimiento a lo largo de los años, más como un pasatiempo que como cualquier otra cosa, y hoy la colección incluye alrededor de 1500 sistemas informáticos diferentes. Además del aumento en el número de computadoras, también se ha ampliado el alcance del índice de referencia. El informe de referencia describe el rendimiento para resolver un problema general de matriz densa Ax = b tres niveles de tamaño del problema y oportunidad de optimización: problema 100 por 100 (optimización de bucle interno), problema 1000 por 1000 (optimización tres bucles: todo el programa) y un problema paralelo escalable.

Calendae: El banco de pruebas de Linpack se ha utilizado hasta ahora para determinar los listados TOP500, de los cuales usted es coeditor. ¿Cuáles son las fortalezas y debilidades de Linpack para la evaluación de supercomputadoras?

DONGARRA: Para aprovechar al máximo la creciente potencia informática de las computadoras altamente paralelas, el software de aplicación debe ser escalable, es decir, capaz de aprovechar configuraciones de máquinas más grandes para resolver problemas más grandes con la misma eficiencia. El punto de referencia LINPACK abordó la escalabilidad al introducir una nueva categoría en 1991. Esta nueva categoría se conoce como el punto de referencia NxN Highly-Parallel LINPACK (HPL). Requiere la solución de sistemas de ecuaciones lineales mediante algún método. El tamaño del problema puede variar y se debe informar la mejor velocidad de punto flotante. Al calcular la velocidad de ejecución, el número de operaciones debe ser 2n3 / 3 + 2n2 independientemente del método utilizado realmente. Si se elige la eliminación gaussiana, se debe utilizar un pivote parcial. La precisión de la solución se mide y se informa. La lista TOP500 muestra los siguientes parámetros de referencia:

∑ Rmax es el rendimiento en GF / s para el mayor problema que se ejecuta en una computadora, ∑ Nmax es el tamaño del mayor problema que se ejecuta en una computadora, ∑ N1 / 2 es el tamaño donde se alcanza la mitad de la velocidad de ejecución Rmax, ∑ Rpeak es el rendimiento máximo teórico en GF / s para la computadora.

Como tal, este punto de referencia informa el rendimiento de esta aplicación con sus operaciones de punto flotante y el paso de mensajes. Entonces hay una aplicación y un número que representa el desempeño del sistema informático. El punto débil es que esto es solo una aplicación y un número.

Calendae: ¿Cómo calificaría la «Evaluación comparativa de HPC de evaluación equilibrada de IDC», que tiene en cuenta otros parámetros, como el ancho de banda / latencia de la memoria y la escalabilidad del sistema? ¿Es este un enfoque más realista que Linpack y, por lo tanto, puede reemplazar a Linpack para la evaluación de supercomputadoras?

DONGARRA: IDC Benchmark parece ser un buen punto de partida para un benchmark posterior. Desafortunadamente, debido a la forma en que se implementa el procedimiento de calificación, existen problemas. Otros entraron en detalles sobre los problemas.

Como dijo Aad van der Steen en un artículo reciente en Primeur Weekly el 13 de febrero de 2002 cuando se le preguntó: ¿Qué tan informativo es el índice de referencia de IDC Balanced Rating HPC? Dijo: «No lo es. Parece que todo el tiempo y el esfuerzo invertidos en el Foro HPC han producido un producto de calidad inferior que debería mejorarse radicalmente o retirarse». Actualmente solo se suma a la confusión que ya existe en la escena de HPC Benchmark.

Calendae: son los TOP500

DONGARRA: Sí, los organizadores del Top500 están tratando activamente de ampliar el alcance del informe de referencia. Es importante incluir múltiples características de rendimiento y firmas para un sistema determinado. Hay una serie de alternativas a considerar para expandir el esfuerzo, como el benchmark STREAMS, el benchmark EuroBen-DM, el NAS Parallel y PARKBENCH. Cada uno de estos describe mejor la escalabilidad de los sistemas y proporciona más información que el índice de referencia de IDC.

Calendae: En la lista TOP500, que se lanzará en junio durante el ISC2002 en Heidelberg, el simulador de tierra japonés (ES) reemplazará al ASCI White estadounidense como el nuevo número 1, con un mejor rendimiento de Linpack de 35,61 TF / s . ¿Qué tamaño tenía el denso sistema de ecuaciones lineales relacionado con esto, que ES resolvió para el nuevo récord mundial de Linpack, y cuánto tiempo tardó ES en resolverlo?

DONGARRA: El sistema de ecuaciones lineales tenía un tamaño de 1.041.216; (8,7 TB de memoria). Este es el mayor sistema denso de ecuaciones lineales que he visto resuelto en una computadora. El índice de referencia tardó 5,8 horas en ejecutarse. Los resultados del cálculo se han verificado y son precisos con las especificaciones aritméticas de coma flotante. El algoritmo utilizado para resolver el sistema fue una división LU estándar con pivote parcial y el entorno de software, en su mayor parte, fue FORTRAN usando MPI con codificación especial para núcleos computacionales.

Calendae: Usted mismo se refirió a ES en el New York Times como Computenik, aludiendo al ruso Sputnik en 1957, que sin duda motivó y aceleró el programa espacial estadounidense. ¿Fue la rápida finalización de la ES realmente una gran sorpresa en los EE. UU.? Hasta donde yo sé, el proyecto ES japonés, incluido el calendario, fue conocido en todo el mundo desde el principio. ¿O se consideró demasiado optimista la finalización prevista de la EE con un 87% de eficiencia?

DONGARRA: Creo que el calendario era bien conocido, pero el hecho de que se completó a tiempo y que esté activo es impresionante. El resultado obtenido con el 87% del benchmark también es muy impresionante. Las impresionantes características de rendimiento son que es 5 veces el rendimiento de la computadora ASCI White Pacific para el punto de referencia. Esta es la mayor diferencia que hemos visto en los últimos 10 años.

Aquí hay algunas estadísticas adicionales impresionantes de Earth Simulator:

El rendimiento de ES es aproximadamente una cuarta parte del rendimiento de todas las computadoras TOP500 de la lista de noviembre de 2001, superando el rendimiento de todas las computadoras del DOE combinadas y mayor que la suma de las 20 computadoras principales en los Estados Unidos.

Calendae: ¿Cree que ES acelerará el programa ASCI?

DONGARRA: La gente en los Estados Unidos está tomando nota de los logros de los japoneses en la computadora simuladora terrestre y muchos de nosotros tenemos la esperanza de que el gobierno de los Estados Unidos continúe invirtiendo en el futuro de la computación de alto rendimiento.

Calendae: qué significa ES para «arquitecturas de multiprocesamiento en paralelo de vectores»; ganarán terreno? No solo NEC, sino también Cray Inc. con SV2 se beneficiarán de ES?

DONGARRA: No estoy seguro acerca del Cray SV2, pero la arquitectura NEC SX es realmente impresionante como un sistema altamente paralelo como se compuso en Earth Simulator. Me imagino que hay varios clientes en todo el mundo que están muy interesados ​​en adquirir un sistema de este tipo que consta de los nodos SX y la estructura de conmutación de Earth Simulator.

Calendae: La computación en cuadrícula es de gran interés en este momento. Por ejemplo, en el ISC2002 en Heidelberg en un tutorial, se dedicará un día entero a este tema, y ​​en la conferencia una sesión completa, en la que brindará el discurso de apertura del viernes ISC2002 relacionado con el tema «Computación de alto rendimiento, redes computacionales y bibliotecas numéricas «.

¿Cuáles son sus proyectos actuales en computación grid?

DONGARRA: En la Universidad de Tennessee estamos trabajando en tres proyectos relacionados con Grid, NetSolve, GrADS y Harness.

Hemos estado trabajando en un enfoque de computación en cuadrícula llamado NetSolve desde 1995. NetSolve proporciona un fácil acceso a los recursos informáticos que se distribuyen con respecto a la geografía y la propiedad. Con NetSolve, un usuario puede acceder a los recursos computacionales de hardware y software distribuidos en una red.

También estamos trabajando con un grupo de colegas en un marco de ejecución de programas financiado por NSF desarrollado por el proyecto Grid Application Development Software (GrADS). El objetivo de este marco es proporcionar una buena asignación de recursos para aplicaciones Grid y admitir la reasignación adaptativa si el rendimiento se deteriora debido a cambios en la disponibilidad de recursos Grid.

HARNESS (Heterogeneous Adaptable Reconfigurable Networked SystemS) es un marco de metacomputación experimental construido alrededor de los servicios de una máquina virtual distribuida (DVM) altamente personalizable y reconfigurable. Un DVM es una cuadrícula de recursos y computación estrechamente acoplada que proporciona un entorno flexible para administrar y coordinar la ejecución de aplicaciones en paralelo. Esta es una colaboración de investigadores de la Universidad de Tennessee, la Universidad de Emory y el Laboratorio Nacional de Oak Ridge y financiada por el Departamento de Energía.

Calendae: ¿Cómo espera que la computación en red afecte el panorama de HPC en el futuro?

DONGARRA: The Grid permitirá implementar clases de aplicaciones radicalmente nuevas. Estas aplicaciones, que van desde nuevos sistemas para la investigación científica hasta el soporte de TI para la gestión de crisis y el soporte para la gestión del estilo de vida personal, se caracterizan por tres temas dominantes: los recursos de TI ya no están localizados, sino distribuidos y por tanto heterogéneo y dinámico; el cálculo es cada vez más sofisticado y multidisciplinario; y el cálculo está integrado en nuestra vida diaria y, por lo tanto, sujeto a limitaciones de tiempo más estrictas que las actuales.

Un buen recurso para las empresas de la zona es “The Grid: Blueprint for a New Computing Infrastructure”, de los creadores de Globus, Ian Foster y Carl Kesselman (Foster y Kesselman, 1998).

Calendae: hay muchos proyectos no comerciales en la industria de la computación en red, por ejemplo [email protected] ¿Cuándo podemos esperar las primeras aplicaciones comerciales?

DONGARRA: Hay ejemplos hoy. Empresas como United Devices, Entropia, Avaki, Parabon Computation están tratando de establecer una operación comercial viable utilizando los conceptos e ideas que provienen del [email protected] Experiencia.

Sitio web: http://www.supercomp.de

=============================================== ==========

Recuerda compartir en en tu Twitter y Facebook para que tus amigos opinen

??? ? ? ???

Comparte