El seminario de HPC sobre petróleo y gas destaca los desafíos de la industria

Hola, ¿qué tal colega?. Te escribe Simón Sánchez y hoy vamos a hablar sobre El seminario de HPC sobre petróleo y gas destaca los desafíos de la industria

Líderes de la industria del petróleo y el gas y de la industria informática y de computación de alto rendimiento, así como académicos y representantes de laboratorios nacionales, se reunieron en Rice University en Houston, Texas, el 1 de marzo para la quinta edición de Rice. Taller de HPC para petróleo y gas.

La industria del petróleo y el gas depende en gran medida del procesamiento de alto rendimiento para generar un rendimiento significativo de sus inversiones en perforación y producción. Las enormes demandas de datos y procesamiento en la industria están impulsadas por servicios que respaldan el mapeo geofísico, como la generación de imágenes sísmicas y la simulación de yacimientos, para ayudar a las empresas a evaluar los yacimientos y posicionar los pozos.

Los 300 asistentes al taller son un número récord para el evento, que es organizado por el Instituto Ken Kennedy de Tecnología de la Información en la Universidad de Rice, escuchó los discursos de líderes de la industria y académicos, y participó en talleres que profundizaron en herramientas y técnicas. guiando el camino a seguir en HPC en la industria del petróleo y el gas. Más de una conferencia con discursos formales, networking y conversación están a la vanguardia y los proveedores y asistentes a talleres de todo el mundo están involucrados en un diálogo sobre oportunidades y desafíos.

«El crecimiento del seminario continúa demostrando la importancia de la informática de alto rendimiento como un diferenciador clave y habilitación comercial en la industria del petróleo y el gas, con un retorno de la inversión bien entendido», dijo Jan Odegard, director ejecutivo de Ken Instituto Kennedy. «La energía en la conferencia de este año es un fuerte indicador del deseo de abordar los desafíos en la aplicación de la tecnología de la información a la industria del petróleo y el gas».

Las conferencias interactivas cubrieron una amplia gama de temas, desde optimización de algoritmos, rendimiento y herramientas de programación, como HPCToolkit y Loo.py, modelos y lenguajes de programación, como Co-array Fortran y OpenCL. La amplia gama de debates también cubrió los desafíos para el desarrollo y la gestión de las instalaciones e infraestructuras de HPC y el marco de software de código abierto. AGITO.

El taller también presentó varias charlas clave sobre los desafíos emergentes de HPC y los centros de datos en el sector del petróleo y el gas:

Cray Ungaro, director ejecutivo de petróleo y gas: «Estamos de vuelta en la industria»

Peter Ungaro, presidente y director ejecutivo de Cray Inc., pronunció el discurso de apertura del taller y habló sobre la incursión de su empresa en el petróleo y el gas.

“Si estuviera sentado en tu silla ahora mismo”, dijo Ungaro, “me preguntaría: ‘¿Qué estás haciendo aquí, Pete? Cray es una empresa que se dedica principalmente a laboratorios nacionales. ¿Estabas tratando de llegar a Oak Ridge anoche y te bajaste en Houston por accidente? Bueno, les diría que los mismos desafíos que están sucediendo en la construcción de algunas de las supercomputadoras más grandes del mundo afectarán a la industria del petróleo y el gas.

«Desde mi punto de vista», continuó, «[these challenges] el tipo de máquinas que ponemos en producción dentro de la comunidad del petróleo y el gas cambiará, y muchos requisitos cambiarán fundamentalmente a medida que avancemos en estos cambios de procesamiento. Los requisitos siguen aumentando. Las máquinas que usamos hoy no son el tipo de máquinas que usaremos en unos años «.

Ungaro también abordó lo que llamó el caso de negocio convincente para HPC en el sector del petróleo y el gas.

«Cuando miramos los requisitos de datos y computación, son enormes», dijo. «Desde la adquisición de datos hasta la sísmica, la simulación de yacimientos y las necesidades posteriores, este es un conjunto muy amplio de aplicaciones que enfatizan muchas partes diferentes de la máquina y muchos aspectos diferentes del procesamiento, no solo para sistemas de tamaño. petaflop para cálculos de vanguardia, pero también en el lado de los datos. Desde esa perspectiva, creo que es un tipo de modelo muy singular.

Una imagen sísmica precisa tiene grandes beneficios. Un pozo puede costar mucho dinero y restaurar una reserva tiene serias implicaciones comerciales. Cuando los requisitos y los beneficios son enormes, la demanda de hacerlo bien realmente aumenta «.

A medida que aumentan la complejidad y la integración de los sistemas, Ungaro también ha notado la necesidad de una mayor inversión en tecnología de software que admita arquitecturas de escalamiento vertical y horizontal, ya que aprovecha los aceleradores, todo mientras oculta el nivel de complejidad. en el extremo del primer plano.

«Hubo un tiempo en que había muchas computadoras Cray en la industria del petróleo y el gas», concluyó Ungaro. «Estamos de vuelta en la industria».

IWAVE, un marco de software de código abierto

William Symes, Director del Proyecto de Inversión de Rice y Profesor de Matemática Computacional y Aplicada en la Universidad de Rice, dio una introducción detallada a IWAVE, el marco de código abierto para el modelado de diferencias finitas de cuadrícula regular.

El paquete IWAVE ha evolucionado desde sus inicios como un componente de control de calidad de Modelado SEG avanzado (SEAM) en un marco que se puede utilizar para explorar nuevos algoritmos, portabilidad de código, arquitecturas de evaluación comparativa, herramientas de prueba y nuevas ideas. Como parte de varios talleres, Ted Barragy de AMD y Murtaza Ali de Texas Instruments (TI) demostraron la estructura del marco IWAVE en la industria del petróleo y el gas al llevar componentes a la APU Fusion de AMD y al DSP multinúcleo basado en KeyStone C66x. por TI.

En otra charla de taller, John Mellor-Crummey, profesor de informática en la Universidad de Rice, usó IWAVE como un ejemplo de cómo se puede usar HPCToolkit para obtener información sobre la optimización del rendimiento.

Visualizando la exaescala

Al abordar la transición de la computación a escala petascala a la exascala, Rajeeb Hazra, Gerente General del Grupo de Computación Técnica de Intel, esperaba con interés el viaje hacia la exaescala.

«¿Por qué estamos interesados ​​en llegar a la exaescala?» iglesias. «Los científicos tienen más que hacer o tienen que hacer lo mismo mucho más rápido». Al aceptar la hipótesis de que existe una necesidad continua de un mayor rendimiento en HPC, Hazra ha llamado la atención sobre el costo del ritmo de mejora que ya hemos experimentado. Con el aumento del rendimiento, el consumo de energía ha aumentado de la mano.

«Exascale no se trata de una computadora», continuó Hazra. «Exascale es una afirmación que significa que tiene cientos de computadoras que son un petaflop de medio rack. Esa es la promesa de exascale. Debe pensar en ello como una cadena de suministro que de repente se ha habilitado a un nivel mucho más alto, no solo eso. la parte superior de la cadena de suministro tiene la computadora más grande para ejecutar.

“Hemos pasado de unos pocos kilovatios para los sistemas informáticos más grandes al sistema más grande que existe, que es la computadora K en Japón, que usa 10 megavatios por diez petaflops. Suena maravilloso, pero lo hicimos escalando sistemas más rápido que la ley de Moore. No hemos hecho lo que tenemos que hacer, que es cambiar la densidad de rendimiento.

«Ahora tienes que abordar este problema desde una perspectiva de sistemas», continuó Hazra. “Mi mensaje a los programadores: su forma de pensar debe cambiar. Cuanto más secuencial seas, más problemas te estarás creando. Estás pensando en el rendimiento y los resultados en un viejo paradigma. Ya sea que se trate de lenguajes específicos de dominio o pragmas particulares o un enfoque basado en bibliotecas para lograr el paralelo, debe poder expresarlo. El paralelismo sin localidad y la localidad sin paralelismo son extremos que debes evitar «.

También enfatizó el co-diseño de hardware y software, con un circuito de retroalimentación entre los dos lados. “El co-diseño tiene que ser algo que cambie lo que estás haciendo y lo que iba a hacer de manera concertada”, dijo. “No se trata de recopilar requisitos. Es un problema difícil. Puede ser como intentar que el Congreso trabaje en conjunto, pero hay que hacerlo «.

El desafío del poder

Los ingenieros del Laboratorio Nacional de Los Alamos (LANL), Richard Rivera y Farhad Banisadr, analizaron la creciente demanda de energía para centros de datos y las prácticas de ingeniería para satisfacer esas necesidades. Rivera destacó la importancia de la eficiencia de la ingeniería en la gestión del centro de datos. «Tratamos de ser proactivos», dijo. “La energía es una de las materias primas que requiere la tecnología. Tenemos que implementar algunas prácticas de ingeniería para lograr eficiencias donde podamos «.

Una planificación cuidadosa marca el enfoque de Rivera y Banisadr, quienes utilizan software de modelado para maximizar la eficiencia y anticipar las necesidades de HPC años antes de la instalación. Los sensores conectados en red en el centro de datos LANL miden la temperatura, la humedad y la presión del aire debajo de los pisos del centro de datos en cualquier punto. Estos sensores permiten a los ingenieros analizar la eficiencia de sus sistemas de enfriamiento y ajustar la estructura para optimizar la eficiencia.

Otra tendencia apunta a la refrigeración líquida. «Con densidades de potencia [in data centers] subiendo a 100 kilovatios por rack «, dijo Banisadr,» vemos la tendencia hacia el enfriamiento líquido. Con las unidades de tratamiento de aire existentes, una unidad de tratamiento de aire de 41 toneladas utiliza aproximadamente entre el 15 y el 18 por ciento de su capacidad para eliminar el calor de sus motores eléctricos «.

En LANL, la cantidad de energía para enfriar estas unidades menos eficientes se traduce en alrededor de 2 megavatios de potencia en una instalación de aproximadamente 19 megavatios. Esto no es sostenible si proyectamos hacia la exaescala para finales de la década.

Las ideas que se están desarrollando para aumentar la eficiencia incluyen programación avanzada de máquinas para maximizar la capacidad, tecnología de centro de energía modular y personalizable, y una mayor cooperación e integración entre las instalaciones, la energía, el enfriamiento y los equipos de TI.

El futuro a largo plazo del poder de los centros de datos es claro, incluso si el camino hacia ese futuro no lo es. «Tenemos un plan», dijo Rivera, «y es traer más poder».

—–

El Taller de HPC de Rice Oil and Gas de 2012 fue, como en el pasado, organizado por un equipo que incluía a Henri Calandra de Total, Keith Gray de BP, David Judson de WesternGeco, Bill Menger de Weinman Geoscience, Scott Morton de Hess Corp., Cap. Wong de Chevron y Jan E. Odegard de Rice University.

Las presentaciones archivadas y los webcasts pronto estarán disponibles en og-hpc.org.

El Seminario de Petróleo y Gas de HPC del próximo año se llevará a cabo en la Universidad de Rice el jueves 28 de febrero de 2013.

Recuerda compartir en tus redes sociales para que tus amigos lo lean

??? ? ? ???

Comparte