La computación en la nube marcará el comienzo de una nueva era de descubrimiento científico - Calendae | Informática, Electrónica, CMS, Ciberseguridad

La computación en la nube marcará el comienzo de una nueva era de descubrimiento científico

Hola, ¿qué tal colega?. Yo soy Simón Sánchez y en el día de hoy hablaremos sobre La computación en la nube marcará el comienzo de una nueva era de descubrimiento científico

La ciencia computacional es el campo de estudio relacionado con la construcción de modelos matemáticos y técnicas numéricas que representan problemas científicos, de ciencias sociales o de ingeniería y el uso de estos modelos en computadoras o grupos de computadoras para analizar, explorar o resolver estos modelos. La simulación numérica permite el estudio de fenómenos complejos que serían demasiado costosos o peligrosos de estudiar mediante experimentación directa. La búsqueda de niveles cada vez más altos de detalle y realismo en tales simulaciones requiere una enorme capacidad computacional y ha impulsado las innovaciones en algoritmos y arquitecturas informáticas.

Gracias a estos avances, los científicos y los ingenieros computacionales ahora pueden resolver problemas a gran escala que antes se pensaba que eran intratables creando sus propios modelos y simulándolos a través de clústeres de computación de alto rendimiento o supercomputadoras. La simulación se utiliza como parte integral de los procesos de fabricación, diseño y toma de decisiones y como herramienta fundamental para la investigación científica. Los problemas en los que la simulación de alto rendimiento juega un papel vital incluyen, por ejemplo, la predicción meteorológica y climática, la investigación nuclear y energética, la simulación y el diseño de vehículos y aviones, la automatización del diseño electrónico, la astrofísica, la mecánica cuántica, la biología, la química computacional y más. todavía.

La computación se considera comúnmente la tercera modalidad de la ciencia, en la que las modalidades o paradigmas anteriores eran la experimentación / observación y la teoría. En el pasado, la ciencia se realizaba observando evidencia de fenómenos naturales o sociales, registrando datos medibles relacionados con las observaciones y analizando esta información para construir explicaciones teóricas de cómo funcionan las cosas. Con la introducción de supercomputadoras de alto rendimiento, los métodos de investigación científica podrían incluir modelos matemáticos y simulaciones de fenómenos que son demasiado costosos o están fuera del alcance de nuestro experimento. Con la llegada de la computación en nube, se vislumbra un cuarto modo de ciencia.

El concepto de computación «en una nube» se define típicamente como un entorno de computación alojado (podría ser local o remoto) que puede proporcionar servicios de almacenamiento y computación elásticos para los usuarios según la demanda. Por lo tanto, el modelo actual de uso de entornos en la nube está dirigido a la ciencia computacional. Pero las nubes futuras pueden servir como entornos para la ciencia distribuida para permitir a los investigadores e ingenieros compartir sus datos con sus colegas de todo el mundo y permitir el uso de resultados costosos para futuros proyectos de investigación y descubrimientos científicos.

Para permitir la transición al cuarto modo de «descubrimiento científico», los entornos de nube necesitarán no solo ofrecer la capacidad de compartir datos creados por la ciencia computacional y los diversos resultados de observación, sino también poder proporcionar un alto rendimiento a bajo costo. cálculo, similar a los de las principales supercomputadoras actuales, para poder analizar rápida y eficazmente el flujo de datos. Además, un criterio importante para las nubes debe ser el aprovisionamiento rápido de los recursos de la nube, tanto de computación como de almacenamiento, para atender a muchos usuarios, muchos análisis diferentes y poder suspenderlos y devolverlos a la vida rápidamente. La confiabilidad es otra preocupación y las nubes deben poder ser «autorreparables» donde los componentes defectuosos pueden ser reemplazados por repuestos o recursos a pedido para asegurar el acceso constante y la disponibilidad de recursos.

El uso de cuadrículas para la computación científica ha tenido éxito en los años rápidos y muchos proyectos internacionales han llevado a la creación de infraestructuras mundiales disponibles para la ciencia computacional. Open Science Grid proporciona apoyo a la investigación intensiva en datos para diversas disciplinas, como biología, química, física de partículas y sistemas de información geográfica. Enabling Grid for ESciencE (EGEE) es una iniciativa financiada por la Comisión Europea que conecta a más de 91 instituciones en Europa, Asia y los Estados Unidos de América para construir la mayor infraestructura de redes de computación multicientífica del mundo. TeraGrid es un proyecto financiado por la NSF que proporciona a los científicos una gran infraestructura de información basada en recursos en nueve sitios asociados proveedores de recursos. Es utilizado por 4.000 usuarios en más de 200 universidades que promueven la investigación en biociencia molecular, ciencias oceánicas, ciencias de la tierra, matemáticas, neurociencia, diseño y fabricación, y otras disciplinas. Aunque las cuadrículas pueden proporcionar una buena infraestructura para la ciencia compartida y el análisis de datos, varios problemas hacen que las cuadrículas sean problemáticas para impulsar el cuarto modo científico: flexibilidad de software limitada, las aplicaciones generalmente deben estar empaquetadas, no son elásticas y carecen de de virtualización. Estos elementos faltantes se pueden entregar a través de la computación en la nube.

La computación en la nube resuelve muchos de los problemas mencionados anteriormente a través de tecnologías de virtualización, que brindan la capacidad de escalar hacia arriba y hacia abajo la infraestructura informática en función de ciertos requisitos. Al utilizar tecnologías basadas en la nube, los científicos pueden acceder fácilmente a grandes infraestructuras distribuidas y personalizar completamente su entorno de ejecución. Además, las adquisiciones efectivas pueden respaldar muchas más empresas y suspender o iniciar empresas en un instante. Esto hace que el espectro de opciones disponible para los científicos sea lo suficientemente amplio como para cubrir cualquier necesidad específica de su investigación.

En muchos campos del estudio científico, las herramientas son extremadamente caras y, como tal, los datos deben compartirse. Con esta explosión de datos y a medida que los sistemas de alto rendimiento se convierten en una infraestructura básica, la presión para compartir datos científicos está aumentando. Esto resuena bien con la tendencia emergente de la computación en nube. Si bien por el momento la computación en la nube parece ser una alternativa rentable al gasto en TI, o al cambio de los centros de TI corporativos del gasto de capital al gasto operativo, los institutos de investigación han comenzado a explorar cómo la computación en la nube puede generar centralización. procesamiento deseado y un entorno para que los investigadores analicen y mordisqueen el flujo de datos. Un ejemplo es el nuevo sistema del Centro Nacional de Computación Científica de Investigación Energética (EE.UU.), llamado «Magellan». Aunque el objetivo inicial de Magellan es proporcionar una herramienta para la ciencia computacional en un entorno de nube, se puede modificar fácilmente para convertirse en un centro de procesamiento de datos accesible para muchos investigadores y científicos.

Hasta hace poco, la informática de alto rendimiento no era un buen candidato para la informática en la nube debido a su necesidad de una estrecha integración entre los nodos del servidor a través de interconexiones de baja latencia. La sobrecarga de rendimiento asociada con la virtualización del host, una tecnología de requisito previo para migrar aplicaciones locales a la nube, erosiona rápidamente la escalabilidad y la eficiencia de las aplicaciones en un contexto de HPC. Las nuevas soluciones de virtualización como KVM y XEN tienen como objetivo resolver el problema de rendimiento habilitando las capacidades de rendimiento nativas de las máquinas virtuales al reducir la sobrecarga de la gestión de la virtualización y al permitir el acceso directo de las máquinas virtuales a la red.

Las redes de alta velocidad son un requisito previo para la informática de alto rendimiento asequible, ya que los clústeres de servidores y almacenamiento deben poder comunicarse entre sí lo más rápido posible. La gran mayoría de las 100 mejores supercomputadoras del mundo utilizan la red InfiniBand de alta velocidad por esta razón, y la interconexión permite que esos sistemas alcancen una eficiencia superior al 90%, un elemento crítico para una computación eficaz de alto rendimiento en cualquier entorno. infraestructura, incluidas las nubes. El sistema «Magellan» del Centro Nacional de Computación Científica de Investigación Energética (NERSC, EE. UU.) Utiliza InfiniBand como interconexión para proporcionar la conexión más rápida entre el servidor y el almacenamiento con el fin de permitir la máxima ganancia del sistema, la máxima eficiencia y una infraestructura capaz de di para analizar los datos en tiempo real.

El consumo de energía es otro problema importante para las nubes de alto rendimiento. A medida que las nubes de HPC crecen, la asequibilidad del descubrimiento científico estará determinada por la capacidad de ahorrar energía y costos de enfriamiento. La administración de energía, implementada dentro de las CPU, la interconexión y la administración y planificación del sistema deben integrarse como una solución completa. Las secciones no utilizadas de las nubes deben apagarse o moverse a estados de ahorro de energía, y el mecanismo de planificación debe incorporar el conocimiento de la topología.

los Consejo Asesor de HPC El grupo HPC | Cloud está trabajando para investigar los patrones de uso y creación de la nube en HPC. El trabajo anterior sobre mecanismos de programación inteligente se ha publicado en el sitio web del consejo y los resultados futuros incluirán el uso de KVM y XEN, CPU de muchos núcleos (como Magny-Cours de AMD, que incluye 12 núcleos en una sola CPU) y software de gestión. de la nube (como Plataforma ISF) se publicará a lo largo de 2010. El Consejo Asesor de HPC seguirá estudiando las tecnologías emergentes y los aspectos que nos llevarán al cuarto modo de la ciencia.

Gracias

los

No te olvides compartir en tus redes sociales para que tus amigos opinen

??? ? ? ???

Comparte