El CERN genera un flujo de datos en todo el mundo - Calendae | Informática, Electrónica, CMS, Ciberseguridad

El CERN genera un flujo de datos en todo el mundo

Hola, un placer verte por aquí. En el teclado Simón Sánchez y en esta ocasión te voy a hablar sobre El CERN genera un flujo de datos en todo el mundo

En las afueras del noroeste de Ginebra, en la frontera franco-suiza, se encuentra el CERN (la Organización Europea para la Investigación Nuclear), el laboratorio de física de partículas más grande del mundo. El CERN alberga el proyecto de física de partículas más ambicioso de nuestro tiempo, la búsqueda de la partícula del bosón de Higgs, una partícula subatómica hipotética que se cree da masa a todas las demás partículas. Este punto elusivo es tan precioso que algunos lo han apodado la partícula divina. Para convencer al bosón de Higgs de que salga de su escondite, los detectores del Gran Colisionador de Hadrones (LHC), el acelerador de partículas gigantes en el CERN, son rayos devastadores de protones de alta energía. Las colisiones más prometedoras se convierten en señales electrónicas y se envían a una granja de ordenadores donde se someten a una reconstrucción digital. Pero este es solo el comienzo del largo viaje de datos.

UN artículo in Nature examina el camino que deben recorrer los datos para llegar a los sitios de investigación de los miembros, donde puede comenzar el análisis.

Aquí hay un desglose del proceso:

Incluso después de rechazar 199,999 de cada 200,000 colisiones, el detector produce 19 gigabytes de datos en el primer minuto. En total, ATLAS y los otros tres detectores principales del LHC produjeron 13 petabytes (13 × 10 ^ 15 bytes) de datos en 2010, que llenarían una pila de CD de unos 14 kilómetros de altura. Esta tasa supera cualquier otro esfuerzo científico en curso en la actualidad, incluso en campos ricos en datos como la genómica y la ciencia del clima (ver Nature 455, 16-21; 2008). Y los análisis también son más complejos. Los físicos de partículas deben estudiar millones de colisiones a la vez para encontrar las señales enterradas en ellas: información sobre materia oscura, dimensiones extra y nuevas partículas que podrían tapar agujeros en los modelos actuales del Universo. Su principal presa es el bosón de Higgs, una partícula que se cree que juega un papel central en la determinación de la masa de todas las demás partículas conocidas.

Los datos se envían a Worldwide LHC Computing Grid, una vasta red de computadoras conectadas, que comprende aproximadamente 200.000 núcleos de procesamiento y 150 petabytes de espacio en disco. Desde aquí se distribuye a 34 países a través de líneas de datos alquiladas a una velocidad de 5 gigabytes por segundo. Todos los investigadores necesitan una copia de los datos, pero si todos se conectaran al sistema al mismo tiempo, se sobrecargaría y se apagaría. En cambio, la cuadrícula envía automáticamente copias de los datos a las instituciones de investigación participantes.

Los conjuntos de datos se dividen para que los diferentes grupos de investigación obtengan piezas relevantes. Cuando la información llegue a su destino, los socios del proyecto accederán a ella y realizarán sus experimentos. A medida que se recopilan más y más datos, comienza a formarse una imagen. Con cada petabyte de datos fluyendo a través de la red, los científicos podrían estar un paso más cerca de buscar evidencia de la partícula divina y lograr una comprensión más profunda del Big Bang.

No te olvides compartir en en tu Twitter y Facebook para que tus colegas lo vean

??? ? ? ???

Comparte