Examen del ecosistema computacional internacional - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Examen del ecosistema computacional internacional

Hola, ¿qué tal colega?. Yo soy Simón Sánchez y en esta ocasión hablaremos sobre Examen del ecosistema computacional internacional

A finales de abril, el Centro Mundial de Evaluación de Tecnología (WTEC) publicó su último informe, la Evaluación internacional de investigación y desarrollo en ingeniería y ciencia basada en simulación (SBE & S). El informe fue encargado en 2007 y financiado por la Fundación Nacional de Ciencias, el Departamento de Defensa, la Administración Nacional de Aeronáutica y del Espacio, los Institutos Nacionales de Salud, el Instituto Nacional de Estándares y Tecnología y el Departamento de Energía. El producto final tiene 400 páginas, pero no se preocupe, todas menos unas 130 páginas son apéndices. los reporte completo [PDF] está disponible para descargar desde el sitio web de WTEC.

El informe no tiene reservas sobre apoyar el poder de la computación para hacer del mundo un lugar mejor: «No hay campo de la ciencia o la ingeniería que no haya sido avanzado y en algunos casos transformado por la simulación por computadora». Desde este punto de vista, la

Esta última pieza resuena en todo el informe y, francamente, me distrajo. Diré de inmediato que entiendo que el énfasis en la competitividad de EE. UU. Es el resultado práctico de que los patrocinadores del estudio necesitan influir en los legisladores para aumentar sus presupuestos. Y esto probablemente funcionará y el resultado será algo bueno. Pero el énfasis del informe se apoya más en la posición de que la falta de liderazgo de Estados Unidos en cualquier área de la ciencia computacional es aparentemente indeseable. Esta visión suena hueca en su extremo. Hubiera preferido ver el informe, y el país en realidad, centrarse en hacer lo correcto para desarrollar un ecosistema computacional robusto, confiando en el conocimiento de que la ventaja competitiva fluye naturalmente. y sostenible de un compromiso a largo plazo con la excelencia técnica combinado con una sólida visión estratégica. No te conviertes en de clase mundial proponiendo ser de clase mundial solo por el hecho de ser de clase mundial. Para.

El informe examina el estado y las tendencias de la investigación en ingeniería y ciencia basada en simulación (SBE & S) en los Estados Unidos, Europa y Asia (principalmente Japón y China).

Un panel de expertos revisó y evaluó el estado del arte, así como los niveles de actividad en el extranjero en las amplias áreas temáticas de SBE & S en ciencias de la vida y medicina, materiales, energía y sostenibilidad; y en las cuestiones transversales de hardware y algoritmos de próxima generación; desarrollo de software; simulaciones de ingeniería; validación, verificación y cuantificación de la incertidumbre; modelado y simulación multiescala; y educación.

El grupo celebró un seminario en los Estados Unidos y luego visitó 59 sitios en Europa y Asia, estudió la literatura y leyó una gran cantidad de informes de investigación para obtener control sobre los diversos tipos de actividades realizadas. El estudio destaca los resultados en cada una de las tres áreas temáticas y luego en las áreas transversales. Me centraré en las áreas transversales, ya que son la carne y las patatas de la informática técnica de alta gama.

En general, el panel señaló que el costo de entrada es muy bajo para SBE & S y que debido a que «cualquiera puede hacerlo», el botín irá a parar a quienes puedan hacerlo de manera más eficaz antes que nadie. También se unen a la legión de informes de la cinta azul para señalar que la educación computacional en todas partes es, eh, digamos simplemente inadecuada:

La educación y capacitación inadecuadas de la próxima generación de científicos computacionales amenaza el crecimiento global y estadounidense de SBE & S…. Casi universalmente, el panel encontró preocupación de que los estudiantes usen código principalmente como cajas negras, con solo una pequeña fracción de estudiantes aprendiendo algoritmos y desarrollo de software adecuados, particularmente con miras al desarrollo de código de fuente abierta o comunitario. .

También reiteran la afirmación de que la financiación de SBE & S en EE. UU. Es demasiado baja en comparación con los compromisos masivos en Europa y Asia que ya están comenzando a dar sus frutos. Por ejemplo:

En Alemania, las inversiones específicas y dirigidas en SBE & S se modelan de acuerdo con las recomendaciones del Informe del Panel de Cinta Azul de la NSF de 2006 sobre SBES (Oden 2006) como parte del aumento del 20% año tras año en la financiación de la investigación. Como resultado de esta nueva financiación, Alemania ya exhibe muchas de las estructuras organizativas y colaborativas innovadoras que se consideran más prometedoras para el avance de SBE & S en el contexto de la investigación de energía, medicina y materiales. El grupo observó una amplia reestructuración de las universidades para permitir un trabajo más interdisciplinario y asociaciones sólidas entre la academia y la industria.

A lo largo del informe, el panel critica el énfasis en el financiamiento estadounidense a corto plazo, la falta de compromiso estratégico y nuestra actitud cultural de «ir solo» como determinantes de la debilidad perpetua en nuestra infraestructura computacional.

Por ejemplo, el grupo descubrió que los proyectos de desarrollo de códigos comunitarios son mucho más sólidos dentro de la Unión Europea que en los Estados Unidos, con estrategias nacionales y apoyo a largo plazo. Muchas veces se le ha dicho al panel que Estados Unidos es un «socio poco confiable» en estos esfuerzos debido a nuestra incapacidad para comprometernos durante más de tres años consecutivos. Tanto esta percepción como la realidad significan que Estados Unidos tiene poca influencia en la dirección de estos códigos comunitarios y, al mismo tiempo, no está desarrollando códigos importantes propios.

Y está esta joya, destinada a los esfuerzos de ciencia de materiales en los Estados Unidos, pero aplicable a HPC en general:

Muchos códigos grandes, tanto de código abierto como de código no abierto, requieren la colaboración entre grandes grupos de científicos de campo, matemáticos aplicados y científicos computacionales. Sin embargo, existe una colaboración mucho mayor entre los grupos en el desarrollo del código material en Europa que en los Estados Unidos. Parece haber varias razones para esto:

  • El proceso de permanencia en los Estados Unidos y los sistemas de recompensa académica suprimen la colaboración.
  • La financiación, las promociones y los premios fomentan la ciencia de alto impacto (publicaciones en Nature and Science, por ejemplo), mientras que el desarrollo de herramientas de simulación no se considera ciencia de alto impacto. Sin embargo, estas herramientas (que pueden tardar muchos años en desarrollarse) suelen ser la clave para permitir una ciencia de alto impacto.

Pero, ¿qué pasa con HPC específicamente, preguntas? El panel reitera las observaciones de varios otros informes del panel al destacar el valor de las inversiones coordinadas a nivel nacional en infraestructura computacional:

Los muchos órdenes de magnitud en la aceleración necesarios para lograr un progreso significativo en muchas disciplinas provendrán de una combinación de avances sinérgicos en hardware, algoritmos y software y, por lo tanto, la inversión y el progreso en uno no valdrán la pena sin una inversión simultánea en el otro. .

los

Se considera que las herramientas inmaduras y la naturaleza compleja del flujo de trabajo de HPC en general presentan obstáculos sustanciales para un uso más eficaz de SBE & S.

La interoperabilidad de software y datos, la visualización y los algoritmos que superan al hardware dificultan un uso más eficaz de la simulación de ingeniería…. En la mayoría de las aplicaciones de ingeniería, los algoritmos, el software y los datos / visualización son los principales cuellos de botella. Los recursos computacionales (flops y bytes) no fueron factores limitantes en la mayoría de los sitios. El ciclo de vida de los algoritmos es de entre 10 y 20 años, mientras que el ciclo de vida del hardware es de entre 2 y 3 años. Ver los resultados de la simulación sigue siendo un desafío, y las redes de alto ancho de banda y HPC han agravado el problema. (Énfasis añadido)

En particular, el informe señala que las inversiones en flujo de trabajo de datos y visualización a gran escala están distribuidas de manera desigual, con las comunidades de física de partículas y ciencias de la vida a la cabeza y las comunidades de química y ciencia a la cabeza. ciencia de los materiales en segundo plano. En parte, las comunidades líderes tienen la ventaja porque no se les ha permitido cojear como siempre lo han hecho: los requisitos reglamentarios (en ciencia biológica) y el gran volumen de datos han obligado a la inversión y la innovación. Otras comunidades todavía están intercambiando en gran medida el tiempo perdido inmediato de los investigadores con inversiones a largo plazo en una infraestructura de datos de apoyo que, en última instancia, aceleraría el ritmo de la innovación y el descubrimiento. En otras palabras, están comprando más fracasos ahora y sacrificando más descubrimientos más adelante. Pero el informe señala:

La industria está muy por delante del mundo académico en lo que respecta a la infraestructura de gestión de datos, la cadena de suministro y el flujo de trabajo.

El informe también señala que la visualización y el análisis de datos son completamente esenciales para resolver los problemas más importantes de nuestra sociedad, abordando directamente la tendencia preocupante en algunos programas nacionales de HPC a gran escala para restar importancia a la financiación para la visualización y la pintura. su contribución como «bellas imágenes»:

Los macrodatos, la visualización y las simulaciones dinámicas basadas en datos son elementos tecnológicos cruciales en una serie de «grandes desafíos», incluida la producción de combustibles para el transporte de los últimos campos petroleros gigantes que quedan.

Finalmente, el informe del panel destaca un gran agujero en el ecosistema computacional global: la falta de un énfasis adecuado en verificar, validar y cuantificar la incertidumbre.

Un informe sobre la ciencia computacional europea (ESF 2007) concluye que «sin validación, los datos computacionales no son creíbles y, por lo tanto, inútiles». … Los datos y otra información recopilada por el grupo WTEC en su estudio sugieren que hay muchos «experimentos de simulación y experimentación», pero ningún esfuerzo sistemático para establecer el rigor y los requisitos en UQ y V&V que los informes citados han sugerido son necesario.

Hay algunas excepciones que son reportadas por el panel, por ejemplo, en el trabajo de SciDAC y la Oficina de Simulación y Modelado de Defensa del Departamento de Defensa, y en el trabajo teórico en Alemania, Suiza y Austria, pero estos esfuerzos se caracterizan como limitados en alcance e impacto en relación con el tamaño. del problema que finalmente debe ser abordado. Claramente, se necesita una mayor comprensión de las limitaciones de las respuestas que nos brindan nuestras computadoras. Esto es especialmente importante ya que dependemos cada vez más de ellos para obtener respuestas a preguntas relacionadas con nuestra salud y seguridad y el bienestar de todo nuestro planeta.

No te olvides compartir en tu Facebook para que tus colegas lo lean

??? ? ? ???

Comparte