La semana bajo revisión - Calendae | Informática, Electrónica, CMS, Ciberseguridad

La semana bajo revisión

Hola, un placer verte por aquí. Te escribe Simón Sánchez y hoy vamos a hablar sobre La semana bajo revisión

Aquí hay un resumen de los aspectos más destacados del flujo de noticias de esta semana según lo informado por Calendae.

La nueva herramienta de simulación podría acortar el proceso de diseño de fabricación

AboveNet, socio de la Universidad de Houston en la red de alto ancho de banda

SDSC se une a otros departamentos de UC San Diego, LLNL en Oncology Collaboration

Computación de plataforma, asociación instrumental ampliada

SGI Altix seleccionado como sistema dedicado para la investigación del cáncer

El conmutador Voltaire incluye una puerta de enlace Ethernet integrada para puentes de baja latencia

El gobernador Bill Richardson lanza acceso en todo el estado a la supercomputadora de Nuevo México

Experimento CERN ATLAS de Dell y líder de TI de la industria

Texas Memory Systems ofrece PCIe Flash para la comunidad de código abierto

Mayo Clinic, IBM Advance Early Detection of Brain Aneurisms

El controlador Mellanox ConnectX-2 ahora disponible a través de HP

Los científicos de Argonne utilizan supercomputadoras para explorar la energía nuclear

AMD reporta ingresos en el cuarto trimestre superiores a $ 1.6 mil millones

DOE anuncia la bonanza de los premios anuales de supercomputación, ¡1,6 mil millones de horas!

Es esa época del año nuevamente, cuando la gente del Departamento de Energía de los Estados Unidos (DOE) tiene el divertido trabajo de asignar tiempo de computadora a los proyectos de alto nivel que más lo merecen. Este año las cifras son asombrosas: se han asignado 1.600 millones de horas a 69 proyectos. Como siempre, todo esto es gracias a INCITE, el programa Innovative and Novel Computational Impact on Theory and Experiment, ahora en su séptimo año.

Según el comunicado de prensa, el programa INCITE, «proporciona poderosos recursos para permitir que los científicos e ingenieros lleven a cabo investigaciones de vanguardia en semanas o meses en lugar de en los años o décadas requeridos anteriormente, …[ing] avances científicos en áreas como el cambio climático, las energías alternativas, las ciencias de la vida y la ciencia de los materiales «.

Los proyectos de vanguardia se seleccionaron en función de un proceso de revisión por pares y su preparación computacional para avanzar en el descubrimiento científico. Tendrán tiempo en las instalaciones de procesamiento de liderazgo del DOE en el Laboratorio Nacional Argonne en Illinois y el Laboratorio Nacional Oak Ridge en Tennessee.

24 millones de los 1.600 millones de horas se destinarán a ayudar a los investigadores a diseñar materiales para el desarrollo de baterías de aire de litio, capaces de impulsar un automóvil 500 millas con una sola carga. A modo de comparación, las baterías de iones de litio que se utilizan en los vehículos eléctricos híbridos enchufables actualmente disponibles tienen un alcance de entre 40 y 100 millas.

El Centro Nacional de Aplicaciones de Supercomputación (NCSA) y el Instituto de Aplicaciones y Tecnologías de Computación Avanzada (IACAT) también anunciaron detalles de sus premios de supercomputación, que incluyen 28 millones de horas para un nuevo proyecto titulado: «Evaluación de desempeño y Analysis Consortium End Station «. Este importante esfuerzo tiene como objetivo maximizar la utilidad de los sistemas de clase ejecutiva del DOE, como Cray XT4, Cray XT5 e IBM Blue Gene / P.

Puedes leer sobre este proyecto y todos los ganadores del INCITE, aquí.

Echemos un vistazo rápido a cómo las recompensas de este año se comparan con las de años anteriores. En primer lugar, romper la marca de mil millones de horas y superarla: la cifra de 1.600 millones es un 80% más alta que el año pasado. En diciembre de 2008, la Oficina de Ciencias del DOE anunció 66 proyectos y casi 900 horas de procesador. Esa cifra de 900 horas es más de tres veces la cantidad de horas anunciada en enero de 2008, cuando el DOE asignó 265 horas (compartidas entre 55 proyectos).

Una tendencia emergente es que el número de proyectos no está aumentando tanto como el número de horas asignadas. En resumen, en los últimos tres años las horas asignadas han aumentado de 265 a 900 a 1,6 mil millones y el número de proyectos ha pasado de 55 a 66 a 69. Las aplicaciones, y la ciencia en general, se han vuelto tan complejas e intensivas datos, que es un proyecto determinado requerirá cada vez más tiempo de procesamiento para procesar toda la información. Para ilustrar: hay un impulso en el modelado climático para reflejar los sistemas del mundo real tanto como sea posible en lugar de simplificar el problema mediante la aproximación de procesos físicos. Por ejemplo, representar la Tierra como un elipsoide requiere más potencia de supercomputación que usar la forma esférica menos compleja (pero menos precisa). ¡Y ni siquiera hemos mencionado cómo el impulso actual hacia los sistemas en tiempo real aumentará nuestras necesidades informáticas!

NVIDIA se asocia con la Universidad de Illinois para el manual de programación de GPU

El innovador de GPU NVIDIA y su socio en procesamiento, la Universidad de Illinois en Urbana, anunciaron hoy un libro de texto «único en su tipo», Programación de procesadores masivamente paralelos: un enfoque práctico. Champaign. El texto de 256 páginas es

El anuncio explica el impulso del libro:

Con la computación convencional basada en CPU que ya no es escalable en rendimiento y los desafíos computacionales del mundo aumentan en complejidad, la necesidad de computación masivamente paralela nunca ha sido mayor. Las GPU tienen cientos de núcleos capaces de ofrecer aumentos de rendimiento transformadores en una amplia gama de desafíos computacionales. El surgimiento de estas arquitecturas multinúcleo ha planteado la necesidad de enseñar a los programadores avanzados una habilidad nueva y esencial: cómo programar procesadores masivamente paralelos.

El comunicado de prensa afirma que este es «el primer y único texto que enseña cómo programar en un entorno extremadamente paralelo». El material del libro ha sido probado en más de 300 universidades de todo el mundo, y las pruebas del libro se han utilizado en conferencias en la Universidad de Illinois. El libro utiliza OpenCL y CUDA C, el lenguaje de computación paralelo desarrollado por NVIDIA específicamente para sistemas masivamente paralelos.

El editor, Morgan-Kauffman, creó un sitio para el libro. aquí.

Deberías compartir en en tu Twitter y Facebook para que tus amigos lo flipen

??? ? ? ???

Comparte