Los cinco mejores semanales - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Los cinco mejores semanales

Hola y mil gracias por leerme. Te escribe Simón Sánchez y en el día de hoy te voy a hablar sobre Los cinco mejores semanales

El Weekly Top Five presenta las cinco historias más importantes de HPC de la semana, condensadas para su placer de lectura. Esta semana, cubrimos el esfuerzo de NC State para superar las limitaciones de memoria de los chips multinúcleo; la venta del primer sistema de computación cuántica comercial; La primera máquina acelerada por GPU de Cray; algoritmos de aprendizaje automático más rápidos; y el vínculo entre presupuestos reducidos y mayor dependencia del modelado y la simulación.

La técnica de búsqueda aborda las limitaciones de la memoria multinúcleo.

Una nueva técnica desarrollada por investigadores de la Universidad Estatal de Carolina del Norte promete aumentar el rendimiento de los chips multinúcleo entre un 10 y un 40 por ciento. El nuevo enfoque es doble, utilizando una combinación de asignación de ancho de banda y estrategias de «captación previa».

Una de las limitaciones del rendimiento multinúcleo es el problema de la memoria. Cada núcleo debe acceder a datos fuera del chip, pero el ancho de banda disponible es limitado. Con la proliferación de proyectos multinúcleo, la ruta de datos está aún más congestionada. Los investigadores de NC State desarrollaron un sistema de asignación de ancho de banda basado en el hecho de que algunos núcleos requieren más acceso a datos fuera del chip que otros. La implementación de un almacenamiento de memoria en el chip (basado en caché) permite que el chip precargue datos. Cuando la precarga se utiliza de forma inteligente según sea necesario, el rendimiento mejora aún más.

Con ambos conjuntos de criterios trabajando en conjunto, «los investigadores pudieron aumentar el rendimiento de los chips multinúcleo en un 40%, en comparación con los chips multinúcleo que no precargan datos, y en un 10% en comparación con los chips multinúcleo que sí lo hacen. siempre la precarga de datos ”, explica la nota de prensa.

Vendió el primer sistema de computación cuántica comercial

D-Wave Systems, Inc., una firma de investigación con sede en Vancouver, comenzó a generar interés en 2007 cuando la compañía anunció que había construido la primera computadora cuántica comercialmente viable. La afirmación fue difícil de verificar y recibió bastante escepticismo.

Ahora, cuatro años después, D-Wave ha anunciado la primera venta de un sistema de computación cuántica, conocido como D-Wave One, a Lockheed Martin Corporation. Como parte de un contrato de varios años, «Lockheed Martin y D-Wave colaborarán para obtener los beneficios de una plataforma informática basada en procesadores de recocido cuántico aplicada a algunos de los problemas informáticos más desafiantes de Lockheed Martin». D-Wave también proporcionará a Lockheed mantenimiento y servicios relacionados.

D-Wave One se basa en una técnica llamada recocido cuántico, que proporciona el marco computacional para un procesador cuántico. También fue objeto de un artículo publicado en la edición del 12 de mayo de Naturaleza. El procesador de 128 qubit de la computadora, conocido como Rainier, se basa en la mecánica cuántica para abordar los problemas computacionales más complejos. Aunque no se ha especificado el interés exacto de Lockheed Martin en el sistema, las aplicaciones adecuadas incluyen análisis de riesgo financiero, reconocimiento y clasificación de objetos, bioinformática, criptografía y más.

Un mundo de fisica artículo citó la colaboración de expertos sobre la autenticidad del sistema. William Oliver del MIT, aunque no forma parte del equipo de investigación, dijo: «Esta es la primera vez que se ha demostrado que el sistema D-Wave exhibe un comportamiento mecánico cuántico». Oliver definió el desarrollo como «un logro técnico y un primer paso importante».

Puede encontrar más información sobre este evento histórico, incluida una entrevista con el cofundador y director de tecnología de D-Wave, Geordie Rose, aquí.

Cray debuta en la supercomputadora GPU-CPU

El nuevo sistema de supercomputación Cray, llamado Cray XK6, se basa en la tecnología de procesador de AMD y NVIDIA para lograr un verdadero diseño híbrido que ofrece hasta 50 petaflops de potencia informática. Lanzada en la reunión 2011 del Cray User Group (CUG) en Fairbanks, Alaska, la supercomputadora usa una combinación de procesadores AMD Opteron serie 6200 (con nombre en código «Interlagos») y GPU NVIDIA Tesla serie 20, y brinda a los usuarios la capacidad de ejecutar aplicaciones con componentes escalares o aceleradores.

El XK6 es el primer sistema Cray en implementar la potencia de aceleración de la computación GPU, y Barry Bolding, vicepresidente de la división de productos de Cray, señala este hecho:

«Cray tiene un largo historial de colaboración con aceleradores en nuestras tecnologías vectoriales. Aprovechamos esta experiencia para crear una supercomputadora híbrida escalable, y la primera generación asociada de un entorno de programación unificado x86 / GPU, que permitirá al sistema abordar en los retos científicos de hoy y de mañana son más productivos ”.

Cray ya tiene su primer cliente; el Centro Nacional de Supercomputación de Suiza (CSCS) en Manno, Suiza, está actualizando su sistema Cray XE6m, apodado «Piz Palu», en una supercomputadora Cray XK6 de varios gabinetes.

El Cray XK6, cuyo lanzamiento está previsto para el segundo semestre de 2011, estará disponible en configuraciones de un solo gabinete y de varios gabinetes y escalará de decenas de nodos de cómputo a decenas de miles de nodos de cómputo. Las rutas de actualización serán posibles para los sistemas Cray XT4, Cray XT5, Cray XT6 y Cray XE6.

Para obtener más información sobre este Cray, consulte primero nuestra cobertura de funciones.

PSC, el algoritmo de aprendizaje automático de velocidad de HP Labs con GPU

Investigadores del Pittsburgh Supercomputing Center (PSC) y HP Labs han descubierto cómo acelerar el proceso de algoritmos clave de aprendizaje automático utilizando el poder de la computación GPU. Específicamente, el equipo logró casi 10 tiempos de aceleración de GPU en comparación con el código de solo CPU y más de 1,000 veces en comparación con una implementación en un lenguaje de alto nivel no especificado. El aprendizaje automático es una rama de la inteligencia artificial que «permite a las computadoras procesar y aprender de grandes cantidades de datos empíricos a través de algoritmos que pueden reconocer patrones complejos y tomar decisiones inteligentes basadas en ellos».

Según William Cohen, profesor de aprendizaje automático en la Universidad Carnegie Mellon, la aplicación con la que está trabajando el equipo de investigación se llama agrupación de k-medias, popular en el análisis de datos y «uno de los métodos de agrupación en agrupación más utilizados en el aprendizaje». automático».

Ren Wu, investigador principal del Centro de Investigación CUDA en HP Labs, desarrolló los algoritmos de clúster acelerados por GPU. Luego, Wu colaboró ​​con el especialista en ciencias de PSC, Joel Welling, para probar los algoritmos en un problema del mundo real, que utilizó datos del conjunto de datos «Books N-gram» de Google. Este tipo de problema de N-gramas es común en el procesamiento del lenguaje natural. Los investigadores combinaron todo el conjunto de datos, con más de 15 millones de puntos de datos y 1.000 dimensiones, en menos de nueve segundos. Este tipo de innovación permitirá que la investigación futura explore el uso de algoritmos más complejos junto con la agrupación de k-medias.

El presupuesto ajustado aumenta la dependencia del gobierno del modelado y la simulación

El Instituto para la Defensa y el Avance del Gobierno (IDGA) emitió una breve declaración la semana pasada, sugiriendo un vínculo entre la caída de los presupuestos y una creciente demanda de herramientas de modelado y simulación (M&S).

La semana pasada, el Ejército y el Departamento de Defensa (DoD) otorgaron un contrato de $ 2.5 mil millones a Science Applications International Corporation (SAIC) para una combinación de soluciones de planificación, modelado, simulación y capacitación. Según IDGA, “este contrato indica la creciente necesidad de entrenamiento de simulación para preparar a las tropas para el combate. A pesar de las restricciones presupuestarias, Modelado y Simulación (M&S) se está expandiendo con el desarrollo de mejoras tecnológicas. M&S es la opción más viable y económica para las fuerzas armadas del mañana «.

La IDGA también anunció que su segunda cumbre anual de modelado y simulación explorará los últimos avances tecnológicos y examinará las lecciones que se pueden aprender de los esfuerzos recientes. Este evento se centrará en las estrategias militares para M&S, como la guerra irregular y el entrenamiento con IED.

No te olvides compartir en una historia de tu Instagram para que tus colegas opinen

??? ? ? ???

Comparte