¿La edad de oro de la supercomputación?

Hola de nuevo. Soy Simón Sánchez y en el día de hoy te voy a contar sobre ¿La edad de oro de la supercomputación?

En comparación con el gasto general en TI, que solo ha aumentado moderadamente en los últimos tiempos, el mercado de las supercomputadoras es bastante saludable. El mes pasado, IDC informó que las ventas de los sistemas más grandes aumentaron un 29,3% a $ 5.6 mil millones de 2011 a 2012, mientras que los ingresos de la fábrica global por espacio de servidores técnicos de computación de alto rendimiento aumentaron un 7,7% durante el mismo período.

¿La supercomputación está experimentando una edad de oro? ES segundo a Paul Gilster de News Observer, quien señala que «los consumidores tendemos a obsesionarnos con los últimos teléfonos inteligentes y tabletas, pero cuando se trata de transformar nuestras vidas, jugamos a la gran informática». Para mantenerse al día con los flujos de procesamiento y datos en constante aumento, HPC debe moverse rápidamente. Esto significa que incluso las máquinas más influyentes pueden no existir por mucho tiempo. Tome Roadrunner, por ejemplo.

Para algunos, es desconcertante que el superordenador FLOPS de IBM Roadrunner, que bate récords, pueda pasar de ser el rey de los superordenadores a ser obsoleto en tan solo cinco años. Aunque el primer sistema de clase petascale sigue siendo muy rápido, sus 296 racks consumen demasiada energía en comparación con los modelos más nuevos, y el sistema basado en células no es muy fácil de programar.

La eficiencia energética es una de las métricas más importantes para proyectos actuales y futuros y es uno de los principales objetivos del proyecto Dome. IBM y el Instituto Holandés de Radioastronomía (Astron) están trabajando para crear un grupo de sistemas capaces de procesar todos los datos del telescopio Square Kilometer Array. Se espera que esté Online en 2024, el telescopio se extenderá sobre 3.000 receptores individuales en Sudáfrica y Australia, conectados por fibra óptica. SKA generará el equivalente al volumen de tráfico de Internet actual dos veces al día.

Los requisitos de datos están impulsando la necesidad de sistemas de procesamiento y almacenamiento más grandes. El SKA, por ejemplo, tendrá que almacenar 1.500 petabytes de datos cada año. El Gran Colisionador de Hadrones en Suiza, que también se considera un generador de big data, crea alrededor de 15 petabytes por año.

Debido a la gran demanda de procesamiento y big data, las empresas de chips están trabajando para crear chips de bajo consumo que produzcan más FLOPS / vatio. Como parte del impulso de IBM para la supercomputación ecológica, la compañía busca diseñar sistemas con un impacto energético mínimo que puedan transferir grandes cantidades de datos utilizando nuevos métodos ópticos.

La sustitución de los costosos experimentos del «mundo real» por modelos virtuales más económicos sigue impulsando la demanda de sistemas de alta gama. Por ejemplo, la supercomputadora Cray Blue Waters simulará 60 millones de átomos para comprender mejor el genoma del VIH.

Si la supercomputación está experimentando una era dorada, ¿cuánto tiempo durará? Los continuos recortes de fondos federales están amenazando el ritmo del progreso, y los objetivos de exaescala continúan avanzando con el tiempo. Sin embargo, la HPC es una tecnología habilitadora que ayuda a empresas y países a mejorar su posición competitiva por igual. Agregue eso a la apariencia de concurso de la lista TOP500, y está casi garantizado que algunos países encontrarán la manera de mantener el dominio de la lista. También es posible que este gran gasto del sistema sea a expensas de sistemas más pequeños.

No te olvides compartir en en tu Twitter y Facebook para que tus amigos lo disfruten

??? ? ? ???

Comparte