La semana bajo revisión - Calendae | Informática, Electrónica, CMS, Ciberseguridad

La semana bajo revisión

Hola, ¿qué tal colega?. Yo soy Simón Sánchez y hoy te voy a hablar sobre La semana bajo revisión

Aquí hay una colección de aspectos destacados, seleccionados de una manera totalmente subjetiva, del flujo de noticias de HPC de esta semana como se informó en insideHPC.com y Calendae.

10 palabras y un enlace

Los accionistas están demandando para detener Comprando el sol, Sun se preocupa por la corrupción

canadiense HPCS 2009 programa y talleres anunciados

Versiones de NVIDIA CUDA 2.2

Flujos en rack en nombre de SGI, anuncia los líderes

Vídeo ANL analiza el software Nimbus para la ciencia en la nube

Pingüino en U de Florida

La Universidad de Cambridge anuncia planes para ciclos de alquiler para la investigación

Intel invierte en nuevo centro de computación visual

Fujitsu afirma el desarrollo de procesador más rápido del mundo

Ley NITRD pasa a casa

Gran Bretaña es nueva certificación de TI verde

IBM es nuevo Sistema S dirigido a la informática de flujo

NEC del proyecto de supercomputadoras respaldado por Japón

NEC Corp. Anunciado hoy se retirará de un proyecto de supercomputadoras apoyado por el gobierno japonés. La decisión viene acompañada de medidas de reducción de costos durante la desaceleración económica. El proyecto comenzó en 2007 en un esfuerzo por reunir a NEC, Hitachi y Fujistu con el Instituto Riken para desarrollar la próxima generación de supercomputadoras. NEC ha decidido retirarse a la luz de una pérdida de 296,6 mil millones de yenes (3,05 mil millones de dólares) desde principios de año (en marzo):

«La compañía está trabajando para fortalecer su rentabilidad por todos los medios, incluido el recorte de empleos y la revisión de proyectos en un entorno económico que se agrava debido a la recesión mundial», dijo NEC en un comunicado.

«A medida que el proyecto de supercomputadoras de próxima generación pasa a la fase de producción, se espera una gran inversión en la producción de hardware», dijo. «El gasto pesaría significativamente en la salud financiera de la empresa».

Para más información lea el artículo completo aquí.

La respuesta más peligrosa …

… de un programa de computadora, como solía decir un profesor de mi alma mater, es una respuesta que parece «correcta». Dan Reed tiene un archivo publicación interesante en su blog sobre precisión en aplicaciones científicas:

La aplicación paralela contiene millones de líneas de código, combinando múltiples modelos de procesos físicos, de ingeniería, biológicos, sociales y / o económicos, que operan en escalas temporales y espaciales que abarcan diez órdenes de magnitud. Ha sido escrito por decenas o incluso cientos de estudiantes graduados, colaboradores postdoctorales, desarrolladores de software y sí, incluso algunos profesores, en más de una década. Implica bibliotecas numéricas y funciones de diferentes grupos de investigación y empresas, y una sola ejecución lleva miles de horas en decenas de miles de núcleos de procesador. En resumen, es un ejemplo típico de código de procesamiento de alto rendimiento a una escala extrema.


¿Estas asustado? Todos deberíamos estarlo. Es hora de adoptar el proceso científico de la ciencia computacional. Necesitamos ver la ejecución de un código amplio y multidisciplinario por lo que es: un experimento, con todas las posibles fuentes de error asociadas con cualquier experimento físico. Esto incluye repetir el experimento (cálculo) para determinar los intervalos de confianza en la respuesta, realizar estudios de perturbación para determinar la sensibilidad de la respuesta a las condiciones ambientales (hardware y software), identificar fuentes de sesgo experimental y definir rigurosamente el experimento. para verificación independiente.

Estos son el principio y el final de los párrafos. Las cosas intermedias son incluso mejores; Recomiendo una lectura.

Esto también se relaciona bien con una de las principales recomendaciones de la Evaluación internacional de investigación y desarrollo en ingeniería y ciencia basada en simulación (SBE & S), publicada a fines del mes pasado y que resumí para Calendae la semana pasada. Un fragmento representativo de ese informe sobre este tema:

Un informe sobre la ciencia computacional europea (ESF 2007) concluye que «sin validación, los datos computacionales no son creíbles y, por lo tanto, inútiles» … Los datos y otra información recopilada por el panel de WTEC en su estudio sugiere que hay muchas «simulaciones Proyectos de tipo «encuentro-experiencia», pero ningún esfuerzo sistemático para establecer el rigor y los requisitos en UQ y V&V que los informes citados han sugerido que son necesarios.

UK Met intenta curar su pulgar negro

La Oficina Meteorológica del Reino Unido (la agencia de previsión meteorológica del gobierno británico, fundada en 1854) tuvo mala prensa en enero de este año cuando el TimesOnline publicó un artículo criticando a la organización por la huella de carbono de su nueva supercomputadora IBM:

Para la Met Office, el pronóstico es bastante embarazoso. Gastó £ 33 millones en una nueva supercomputadora para calcular el impacto del cambio climático en Gran Bretaña, solo para descubrir que la nueva máquina tiene una enorme huella de carbono.

«La nueva supercomputadora, que estará operativa a finales de año, emitirá 14.400 toneladas de CO2 al año», dijo Dave Britton, director de prensa de Met Office. Esto equivale al CO2 emitido por 2.400 hogares, que generan un promedio de seis toneladas cada uno al año.

Ahora están tratando de volver a esa historia con énfasis en la realización. consideraciones energéticas en la próxima actualización factores de decisión más claramente:

Met Office planea pasar a sus sistemas informáticos de alto rendimiento en los próximos 18 meses y se está enfocando en hacer que esos sistemas sean más eficientes, según el gerente de servicios de TI de la organización.

Según el jefe de TI Steve Foreman, hablando con Green, una de las técnicas en las que Met Office ha tenido éxito es usar corriente continua (CC) para alimentar sus servidores en lugar de CA, para evitar grandes pérdidas de energía durante Conversión de CA a CC. Conferencia IT ’09 en Londres, jueves.


Según Foreman, la organización también está buscando otras formas de mejorar la eficiencia de sus sistemas informáticos de alto rendimiento, que se utilizan para el modelado meteorológico, como el aumento de las temperaturas en sus centros de datos.

Esta última pieza se está volviendo bastante popular; recordará que Pete Beckman, del Centro de Computación de Liderazgo de ANL, está haciendo lo mismo con mucho éxito. Sin embargo, el Met del Reino Unido advierte a todos (con anticipación para variar) que incluso si están haciendo lo que pueden, la supercomputación aún requiere mucha potencia:

«En este momento, nuestras supercomputadoras están utilizando alrededor del 40-50% de nuestro consumo total de electricidad en la organización, que se acerca al 80%», admitió. “Está aumentando porque necesitamos más potencia informática para proporcionar información meteorológica más precisa. Estamos obteniendo más cálculos por vatio, pero la demanda de cálculos supera con creces la velocidad a la que los proveedores pueden reducir el consumo de energía «.

—–

John West forma parte del equipo que resume los títulos en Noticias de HPC todos los días en insideHPC.com. Puedes contactarlo en [email protected].

Recuerda compartir en tu Facebook para que tus colegas lo disfruten

??? ? ? ???

Comparte