IBM aplica Elastic Storage al Big Data Challenge - Calendae | Informática, Electrónica, CMS, Ciberseguridad

IBM aplica Elastic Storage al Big Data Challenge

Hola y mil gracias por leerme. En el teclado Simón Sánchez y en el día de hoy hablaremos sobre IBM aplica Elastic Storage al Big Data Challenge

Una herramienta de big data desarrollada por IBM en colaboración con Deutsches Elektronen-Synchrotron (DESY) permitirá a los científicos de todo el mundo gestionar y compartir grandes volúmenes de datos de rayos X producidos por un super microscopio en Alemania más rápido.

El centro de investigación alemán DESY desarrolla, construye y opera grandes aceleradores de partículas que se utilizan para estudiar la estructura de la materia. Uno de esos aceleradores, el PETRA III de 1,7 millas de largo, acelera las partículas cargadas eléctricamente a casi la velocidad de la luz, unas 186.000 millas por segundo, y las envía a una pista magnética para generar rayos X extraordinariamente brillantes, conocidos como radiación de sincrotrón.

Unos 2.000 científicos al año utilizan la herramienta para estudiar la estructura atómica de nuevos semiconductores, catalizadores, células biológicas y otros materiales. Esto da como resultado grandes volúmenes de datos radiográficos. El desafío llevó a IBM y DESY a implementar una arquitectura de Big Data y Analytics utilizando la tecnología definida por software de IBM, denominada Elastic Storage, capaz de manejar más de 20 gigabytes de datos por segundo con un rendimiento máximo.

«Un detector típico genera un flujo de datos de aproximadamente 5 Gigabits por segundo, que es aproximadamente el volumen de datos de un CD-ROM completo por segundo», Ella dijo Dr. Volker Gülzow, director de DESY IT. «Y en PETRA III no tenemos un solo detector, sino 14 líneas de luz equipadas con muchos detectores y actualmente se están ampliando a 24. Todos estos grandes datos deben almacenarse y administrarse de manera confiable».

El almacenamiento elástico es descrito como una solución escalable y de alto rendimiento para la gestión de archivos y datos, basada en la tecnología General Parallel File System (GPFS), que ofrece:

  • Seguridad avanzada: cifrado nativo y borrado seguro, cumplimiento de cifrado NIST SP 800-131A.
  • Rendimiento mejorado: las memorias caché de Elastic Storage Flash del lado del servidor aumentan el rendimiento de E / S hasta 6 veces.
  • Usabilidad mejorada: migración de datos; Mejoras de AFM, FPO y copia de seguridad / restauración; mejoras en confiabilidad, disponibilidad y facilidad de mantenimiento.

La arquitectura de almacenamiento permite flujos de trabajo distribuidos geográficamente al colocar los datos críticos cerca de todos y de todo lo que los necesita, sin importar en qué parte del mundo se encuentren.

IBM informa que la tecnología permitirá a DESY ofrecer soluciones de análisis como servicio y basadas en la nube a su base de usuarios en todo el mundo. También está en marcha un plan para expandir la arquitectura de big data para admitir el láser europeo de electrones libres de rayos X (European XFEL), una instalación de láser de investigación de rayos X que se encuentra actualmente en construcción y que se espera que entre en funcionamiento en 2017.

«Esperamos alrededor de 100 petabytes por año del XFEL europeo», dijo el Dr. Gülzow. Esto está a la par con el volumen de datos producidos por el acelerador de partículas más grande del mundo, el Gran Colisionador de Hadrones (LHC) en el CERN en Ginebra.

Puedes compartir en en tu Twitter y Facebook para que tus colegas opinen

??? ? ? ???

Comparte