HPC2014: de la nube y big data a exaescala y más allá - Calendae | Informática, Electrónica, CMS, Ciberseguridad

HPC2014: de la nube y big data a exaescala y más allá

Hola de nuevo. Te escribe Simón Sánchez y en esta ocasión vamos a hablar sobre HPC2014: de la nube y big data a exaescala y más allá

El Taller Internacional de Investigación Avanzada se ha convertido en un hito importante después de celebrarse durante más de 20 años. Se puede culpar a Lucio Grandinetti (Catedrático de la Universidad de Calabria) y su equipo, que comenzaron todo esto y lograron armar, año tras año, lo mejor del think tank de TI.

El lema de esta edición fue muy tentador: «De las nubes y el Big Data a la exaescala y más allá». No hace falta decir que la calidad de los discursos pronunciados fue muy alta, sin embargo, me gustaría compartir mi selección con ustedes.

El seminario no pudo comenzar mejor con las ideas de Jack Dongarra, Ian Foster y Geoffrey Fox. Dongarra explicó cómo la HPC ha cambiado en los últimos 10 años y cómo debemos prepararnos para el próximo salto. Por ejemplo, ha propuesto algunos cambios específicos al Linpack Benchmark, así que imagino que la competencia Top500 se volverá aún más interesante en el futuro.

La ciencia en un área específica se puede hacer con materiales de procesos anteriores en otras áreas. Foster identificó el proceso general como «datos en materiales de red» y explicó que consiste principalmente en: publicar y descubrir datos; conectar herramientas, cálculos y personas; y organice el software existente para que sea más fácil de entender y reutilizar.

Y hablando de reutilización o al menos readaptación, Fox sugirió que HPC debería unificarse con la pila de software Apache, que ya se usa bien en la computación en la nube. Después de una reformulación del famoso NAS nano y paralelo de Berkeley en un «estilo de big data», se ha propuesto un tiempo de ejecución Java (Grande) de alto rendimiento.

La industria tiene mucho que decir. Frank Baetke lideró la voz de HP y presentó la cartera actual de HPC. Su serie SL verá una gran mejora con una nueva GPU y arquitecturas de coprocesador, pero sin prestar atención a la eficiencia de energía y enfriamiento, lo que permitirá tasas de recuperación de energía extendidas.

David Pellerin destacó la importancia de HPC en la nube para la informática de búsqueda en el pasado más reciente y cómo ha permitido la convergencia de análisis de big data. La escalabilidad en la nube proporciona grandes cantidades de potencia HPC, pero también requiere pensar en aspectos como la tolerancia a fallas de las aplicaciones, el tamaño adecuado del clúster y las arquitecturas de almacenamiento de datos. Ha proporcionado algunos casos de uso bajo la «Marca de calidad de AWS HPC».

HPC no se trata solo de máquinas de uso general. Este es el caso de Anton, una máquina de propósito especial masivamente paralela que acelera las simulaciones de dinámica molecular en órdenes de magnitud sobre el estado de la técnica anterior. Mark Moraes explicó los interesantes desafíos detrás de su operación y cómo se abordaron a nivel de software, junto con valiosas lecciones para lograr un escalado eficiente.

Thomas Sterling trajo una propuesta revolucionaria: evitar la lógica básica, el archivo y los componentes básicos de la comunicación. Afirmó que la arquitectura actual está dominada por formas y supuestos tradicionales heredados de la época de von Neumann. Si queremos pasar al siguiente nivel, tenemos que adoptar estrategias y tecnologías avanzadas (arquitectura celular, procesador en memoria, arreglos sistólicos …). Y, por si no fuera suficiente su propuesta, Sterling ha ideado los límites esperados, impuestos por la física fundamental, de la llamada «era neodigital».

Volviendo a la nube, Dana Petcu explicó cómo la heterogeneidad puede ser buena y mala al mismo tiempo. Favorece a los proveedores de servicios en la nube al permitirles ser competitivos en un mercado muy dinámico, especialmente al exhibir soluciones únicas. Por otro lado, dificulta la interoperabilidad entre servicios y la portabilidad de las aplicaciones. Petcu analizó cuatro enfoques existentes en los que participó: mOSAIC para interfaces uniformes, MODAClouds para lenguajes específicos de dominio, SPECS para la calidad de la experiencia del usuario y HOST para utilizar los servicios en la nube de HPC.

Wolfgang Gentzsch ofreció una descripción general de estos 2 años de su famoso experimento UberCloud. De hecho, se anunció oficialmente en la edición anterior del taller (el propio Tom Tabor ayudó a crear el anuncio y Geoffrey Fox fue el primero en registrarse). Tuve el honor de participar en la primera ola de experimentos y el éxito de este proyecto (¡152 experimentos y más de 1.500 organizaciones!) Puede justificarse por el arduo trabajo de los organizadores.

Monitorear y administrar big data es en sí mismo un problema de big data. Este fue el punto de partida del Sistema de Gestión de Activos Digitales presentado por Carl Kesselman, que permite incrementar el tiempo asignado al proceso de extracción de conocimiento. La arquitectura del sistema (SaaS), «la foto de big data» según Kesselman, se explicó junto con un caso de uso interesante de la ciencia biomédica.

Por cierto, también contribuí al seminario. Este año presenté dos casos de uso relacionados con «nube por nube», a saber, la computación en nube para meteorología. En particular, expliqué cómo los esfuerzos realizados en el contexto de la investigación atmosférica marciana están beneficiando a dos áreas específicas de la Tierra: la optimización de los costos de la predicción meteorológica en España y el correcto escalado del procesamiento de las redes de sensores meteorológicos agrícolas en Argentina. .

El Taller Internacional de Investigación Avanzada de Cetraro lo ha vuelto a hacer. Considerando la calidad de las aportaciones y teniendo en cuenta las palabras de Grandinetti de hace dos años, «el taller está evolucionando en Bellas Artes», estoy bastante seguro de que realmente está evolucionando … en «Bellas Artes en la Nube, HPC y Big Data «.

Acerca de

Jose Luis Vazquez-Poletti es profesor adjunto de Arquitectura de Computadores en la Universidad Complutense de Madrid (UCM, España) e investigador de cloud computing en el Grupo de Investigación de Arquitectura de Sistemas Distribuidos (http://dsa-research.org/).

Está (y ha estado) directamente involucrado en proyectos financiados por la UE como EGEE (Grid Computing) y 4CaaSt (PaaS Cloud), así como en muchas iniciativas nacionales españolas.

De 2005 a 2009 su investigación se centró en la portabilidad de aplicaciones a infraestructuras Grid Computing, actividad que le permitió estar “donde estaba la acción real”. Estas aplicaciones cubrieron una amplia gama de áreas, desde la física de fusión hasta la bioinformática. Durante este período adquirió las habilidades necesarias para perfilar aplicaciones y hacer que se beneficien de las infraestructuras de computación distribuida. Además, ha compartido estas habilidades en muchos eventos de formación organizados en el marco del proyecto EGEE e iniciativas similares.

Desde 2010 sus intereses de investigación se han centrado en diferentes aspectos del Cloud Computing, pero siempre teniendo en cuenta las aplicaciones de la vida real, en particular las relacionadas con el dominio de la Computación de Alto Rendimiento.

Deberías compartir en una historia de tu Instagram para que tus colegas lo flipen

??? ? ? ???

Comparte