La semana bajo revisión - Calendae | Informática, Electrónica, CMS, Ciberseguridad

La semana bajo revisión

Hola de nuevo. Yo soy Simón Sánchez y esta vez te voy a contar sobre La semana bajo revisión

Aquí hay un resumen de los aspectos más destacados del flujo de noticias de esta semana según lo informado por Calendae.

SDSC es parte del programa DARPA para entregar supercomputadoras a una escala extrema

La NASA mostrará la red 40/100 Gigabit en SC10

El gran colisionador de hadrones detiene los protones, espera conducir

QLogic, software de gestión integrada de computación de plataforma

SGI presenta paquetes de software de gestión y rendimiento

La Universidad de Texas en Austin inicia la construcción del Complejo de Ciencias de la Computación Gates y Dell Hall

Altair presenta PBS Professional 11.0

SCinet Research Sandbox para demostrar una colaboración sin precedentes en la industria de HPC

Los modelos de supercomputadora dan una vista previa del telescopio espacial Webb de la NASA

La UE lanza un proyecto para desarrollar tecnologías para plataformas heterogéneas

El análisis de las supercomputadoras «Big Data» se convierte en el foco de una nueva empresa

Mechdyne CAVE aparecerá en Discovery Science Channel

El banco sueco distribuye middleware de Platform Computing

El Consejo Asesor de HPC logra la publicación de más de 50 mejores prácticas y pautas

IBM premia el Powerful Computing System en la Universidad de Lugano

Johns Hopkins construye una súper máquina de minería de datos

Si bien la mayoría de los proyectos de supercomputación actuales se centran en lograr un número máximo de FLOPS (operaciones de punto flotante por segundo), los investigadores de la Universidad Johns Hopkins están diseñando una herramienta científica que permitirá un número máximo de IOPS (I / O por segundo). Esta nueva arquitectura será más adecuada para analizar las enormes cantidades de datos que genera la ciencia actual.

Apodada Data-Scope, la máquina está siendo desarrollada actualmente por un equipo dirigido por el científico informático y astrofísico Alexander Szalay del Instituto Johns Hopkins de Ingeniería y Ciencia Intensivas de Datos. La National Science Foundation proporciona fondos en forma de $ 2.1 millones conceder y Johns Hopkins está contribuyendo con casi $ 1 millón al proyecto.

Según Szalay:

«La informática ha cambiado drásticamente la forma en que hacemos ciencia y la ciencia que hacemos, y Data-Scope es un paso crucial en ese proceso. En este momento, los enormes conjuntos de datos están aquí, pero carecemos de infraestructura. software y hardware integrados para analizarlos. Data-Scope cerrará esta brecha «.

Alcance de datos diseño Incluirá una combinación de discos duros, unidades de estado sólido y procesamiento de GPU, lo que le permitirá manejar cinco petabytes de datos, con un ancho de banda de E / S secuencial cercano a 500 gigabytes por segundo y un rendimiento máximo de 600 teraflops. La máquina será experta en minería de datos, capaz de discernir relaciones y patrones en los datos que conducen a descubrimientos que de otro modo no serían posibles.

Ya hay una acumulación de datos a la espera de ser analizados: tres petabytes de unos 20 grupos de investigación interesados ​​dentro de Johns Hopkins. Szalay explica que sin Data-Scope, los investigadores habrían tenido que esperar años para analizar los datos existentes, y mucho menos los datos que continuarán acumulándose mientras tanto.

Se espera que Data-Scope esté disponible en mayo de 2011 y se ocupará de una amplia gama de temas, que incluyen genómica, circulación oceánica, turbulencias, astrofísica, ciencias ambientales y salud pública.

Szalay subraya la importancia del proyecto:

“Realmente no hay nada igual en ninguna universidad en este momento. Estos sistemas suelen tardar muchos años en construirse, pero lo estamos haciendo mucho más rápido. Es similar a lo que está haciendo Google, obviamente a una escala mil veces mayor que la nuestra. Esta herramienta será la mejor en el mundo académico, sin excepción. «

Appro equipa LLNL con agrupación de visualización

Esta semana Appro lanzó sus Appro HyperPower Clusters, proporcionando al Centro de Computación del Laboratorio Nacional Lawrence Livermore (LLNL) un nuevo cluster de visualización llamado «Edge». El clúster se basa en el sistema Appro CPU / GPU GreenBlade y está diseñado para admitir aplicaciones asociadas de E / S, como análisis de datos avanzados y tareas de visualización. También se utilizará para proyectos de procesamiento de desarrollo de software a exaescala de LLNL.

Los seis racks del sistema albergan un total de 216 nodos de CPU Intel Xeon Six-Core y 208 nodos de GPU NVIDIA Tesla, que ofrecen 29 teraflops de potencia informática. Los 20 terabytes de memoria del sistema proporcionan el mayor nivel de ancho de banda de E / S necesario para el análisis de datos y proyectos de visualización complejos. La estructura QDR InfiniBand conecta los nodos informáticos y gráficos.

Según Trent D’Hooge, jefe de integración de clústeres en LLNL, Edge es el primer clúster de análisis de datos que presenta GPU con capacidad ECC y un rendimiento mejorado de punto flotante de doble precisión.

Becky Springmeyer, jefa de sistemas computacionales y entorno de software del programa de Computación y Simulación Avanzada en LLNL, explica que «las actividades de posprocesamiento están fuertemente ligadas a la E / S, por lo que los servidores de visualización especializados que optimizan I / O en lugar de la velocidad de la CPU son más adecuadas para este trabajo, que ahora se habilitará a través del clúster «Edge». «

Recuerda compartir en tu Facebook para que tus amigos lo consulten

??? ? ? ???

Comparte