La democratización de la computación paralela - Calendae | Informática, Electrónica, CMS, Ciberseguridad

La democratización de la computación paralela

Hola y mil gracias por leerme. Soy Simón Sánchez y esta vez hablaremos sobre La democratización de la computación paralela

El profesor Wu Feng de Virginia Tech College of Engineering tiene la visión de aplicar ampliamente la computación paralela para hacer avanzar la ciencia y abordar los principales desafíos. Un reciente para exponer sobre el trabajo de Feng, detalla su participación con NSF, Microsoft y la Fuerza Aérea utilizando técnicas informáticas innovadoras para resolver problemas.

«Proporcionar medicamentos personalizados a las masas es solo uno de los grandes problemas que enfrenta la sociedad», dijo Feng. “Acelerar el descubrimiento de problemas tan grandiosos requiere más que los pilares tradicionales de la investigación científica, a saber, la teoría y la experimentación. Requiere computadora. La tecnología de la información se ha convertido en nuestro «tercer pilar» de la investigación científica, integrando teoría y experimentación. Este tercer pilar puede permitir a los investigadores abordar problemas que antes se consideraban inalcanzables «.

Aborde la pregunta de por qué fortalecer estas disciplinas ya no es una cuestión de lanzar más FLOP al problema.

«En resumen, con el auge de los ‘big data’, los datos se generan más rápido que nuestra capacidad para procesarlos», explica. “Por ejemplo, los secuenciadores de próxima generación (NGS) duplican la cantidad de datos generados cada ocho a nueve meses, mientras que nuestra capacidad informática solo se duplica cada 24 meses, en comparación con la ley de Moore. Claramente, triplicar nuestros recursos computacionales institucionales cada ocho meses no es una solución sostenible … y claramente tampoco es fiscalmente responsable. Aquí es donde entra la computación paralela en la nube «.

«… En lugar de tener una institución para establecer, mantener y respaldar una infraestructura de tecnología de la información que rara vez se utiliza cerca de su capacidad … y tener que triplicar estos recursos cada ocho a nueve meses para mantenerse al día con el inundado de secuenciación de datos de próxima generación, la computación en la nube es una forma viable y más rentable de acceder a los recursos informáticos que necesita sobre la marcha y luego liberarlos cuando no los necesite «.

Gran parte de su trabajo se centra en la promesa de la computación paralela, que considera análoga a Internet en términos de la capacidad de transformar la forma en que las personas interactúan.

A mediados de la década de 2000, Feng formó parte de un equipo que creó una nube de supercomputación ad-hoc para procesar datos genómicos. Pudieron reducir el tiempo necesario para identificar las anotaciones de genes faltantes en los genomas de tres años a dos semanas al adoptar el paralelismo adicional. Este proyecto ahora se está formalizando y ampliando con fondos de NSF y Microsoft con el objetivo de mercantilizar la biocomputación en la nube.

Para facilitar esta importante investigación, Feng fundó un nuevo centro en Virginia Tech – Synergistic Environments for Experimental Computing (SEEC). El centro está cofinanciado por el Instituto de Tecnología Crítica y Ciencias Aplicadas de Virginia Tech (ICTAS), la Oficina de Tecnología de la Información y el Departamento de Ciencias de la Computación. Bajo el liderazgo de Feng, el centro de investigación busca democratizar la computación paralela a través de algoritmos de codificación, software y hardware para acelerar el descubrimiento y la innovación. Se hará hincapié en cinco áreas, cada una con diversos grados de requisitos de «gran computación» y «big data»: sistemas ciberfísicos donde los sistemas físicos e informáticos se cruzan; ciencias de la salud y de la vida, incluidas las ciencias médicas; análisis comercial y financiero; Seguridad informatica; y simulación científica.

Deberías compartir en tus redes sociales para que tus amigos lo lean

??? ? ? ???

Comparte