Fortalecimiento de la biología computacional a una escala extrema - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Fortalecimiento de la biología computacional a una escala extrema

Hola de nuevo. Te habla Simón Sánchez y hoy te voy a contar sobre Fortalecimiento de la biología computacional a una escala extrema

Según el Dr. Klaus Schulten de la Universidad de Illinois, los programas de visualización de dinámica molecular NAMD y VMD, que sirven a más de 300.000 usuarios registrados en muchos campos de la biología y la medicina, están empujando los límites de la biología computacional a una escala extrema. Schulten dice que estos programas pueden operar en una amplia variedad de hardware y ofrecer nuevas vías para el descubrimiento médico.

Además de describir NAMD y VMD en los desarrollos de ARM y GPU en los últimos años que han llevado al rendimiento extremo de los programas en Blue Waters, Titan y Stampede, Schulten es conocido por arrojar luz sobre cómo estos campos y programas son habilitados por el procesamiento de petascala. Las siguientes preguntas y respuestas destacan algunas características clave de su investigación.

Calendae: ¿Puede describir el crecimiento de NAMD y VMD y darnos una idea de cómo estos desarrollos han ayudado a evolucionar la biología computacional?

Klaus Schulten: NAMD y VMD son programas que le permiten simular biomoléculas muy grandes y asumir eficazmente el papel de un microscopio computacional: estas moléculas se simulan y luego se visualizan. Conocer sus propiedades de la química y la bioquímica; conoces sus estructuras por la biología. Entonces, al igual que simula un Boeing antes de construirlo, simula una molécula en su computadora para optimizarlo.

La diferencia entre nosotros y otros que construyen programas similares es que hemos diseñado el programa para computadoras paralelas y para software moderno y conceptos de computadora desde el principio. Esto significó diseñar software que se ejecutara en clústeres y luego en computadoras paralelas construidas alrededor de clústeres.

Eso fue todo hasta aproximadamente 2006, cuando la National Science Foundation decidió invertir en una computadora grande cien veces más grande de lo que se hubiera predicho de otra manera, llamada computadora a petaescala. Queríamos aprovechar este enorme aumento de potencia, pero no solo porque queríamos ser 100 veces más potentes en lo que podíamos simular, sino que nos dimos cuenta desde el principio de que todas nuestras simulaciones eran demasiado pequeñas, lo que significa que una célula viva está formado por millones y millones de moléculas que forman asociaciones cooperativas, y tuvimos que averiguar cómo estas proteínas trabajan juntas en lugar de solas.

Con esta gran computadora queríamos explorar cómo las moléculas de la vida se asocian en estructuras y luego cooperan, y eso es exactamente lo que hemos logrado. Hemos resuelto la estructura del virus del VIH, que incluía más de 1.000 proteínas que forman una cápside, y ahora podemos describirlo átomo por átomo. Sin la computación a petaescala hubiera sido imposible.

Alcanzar este objetivo significó utilizar la computadora de dos maneras. Por un lado, hicimos que la computadora fuera parte del experimento, literalmente. Cuando desee ver un virus para un experimento tradicional, debe tener el virus físico a mano. Pero al igual que Boeing puede simular un avión, y podemos simular muchas moléculas que se encuentran en las células vivas, evitando el estudio físico y haciendo que la computadora sea una parte integral del experimento en sí.

Así que obtuvimos datos de diferentes tipos de experimentos a través de fuentes como cristalografía y microscopía electrónica, y luego los integramos en una imagen del virus que nos dio una vista del virus a nivel de átomo. Luego podríamos probarlo en la segunda fase. Finalmente, podríamos tomar este modelo y simularlo en la computadora, haciendo la simulación más grande del mundo, creo que hasta este momento.

En este punto hemos logrado nuestro objetivo, pudimos demostrar que la estructura es estable para simular en la computadora y podríamos examinar sus propiedades físicas, pero ahora, por supuesto, viene el problema de lo que hemos aprendido de ella.

Primero resolvimos la estructura átomo por átomo porque queríamos convertir el contenedor del virus, la llamada «cápside», en un objetivo del tratamiento farmacológico. Esto requiere que conozcamos la química de ese objetivo, porque cuando se trata de medicamentos que son moléculas, debe conocer ambos lados del tratamiento directo en detalle químico: debe conocer el medicamento, por supuesto, (moléculas muy pequeñas que son bastante simples, ) y necesita conocer el objetivo, que en este caso es un sistema enorme de más de 1.000 proteínas, y cada proteína en sí misma en una molécula grande que contiene varias decenas de miles de átomos.

Una vez que aplicamos medicamentos a nuestro virus computacional, aprendimos que lo más probable es que los medicamentos funcionen de manera muy diferente de lo que pensábamos: descubrimos que el VIH es más peligroso e inteligente de lo que pensábamos.

El VIH es como un estafador que se cuela en la célula y luego la convence para ayudar al virus a infectarla. De lo contrario no es nada fácil infectar una célula: el virus tiene que poner su material genético en el núcleo celular, donde la célula viva tiene su material genético, lo cual es muy difícil porque el núcleo está muy protegido y muy bien organizado contra este tipo. de intrusión. Pero el virus convence a una célula para que la ayude a llevar sus genes al núcleo.

Y es esta cooperación en la que funcionan los medicamentos antivirales.

Y ahora tenemos el escenario de este drama: en la enorme superficie del virus, que está formada por más de mil proteínas, el virus recluta proteínas de la célula infectada para ayudarla en su estrategia viciosa para introducir los genes del virus. Aquí es donde los medicamentos antivirales aparentemente interfieren con esta coordinación con la célula.

Calendae: el uso de ARM y GPU es fundamental para su investigación. ¿Puedes hablar desde ese ángulo?

Klaus Schulten: Somos uno de los centros tecnológicos financiados por los Institutos Nacionales de Salud. Nos llamamos Centro de Modelado Macromolecular y Bioinformática y hemos recibido financiación durante 23 años y recibiremos financiación durante otros cinco años. La misión del centro es poner a disposición de los investigadores biomédicos de los Estados Unidos la mejor tecnología de la información.

Y nuestro trabajo, ya que hemos demostrado que a través de nuestra investigación podemos usar la tecnología informática moderna (especialmente la computación paralela) extremadamente bien, es que no solo la usamos para nuestra investigación, sino que también la ponemos a disposición para la investigación. otros. Nuestro objetivo es ser tan buenos o mejores que los físicos en el uso de la tecnología informática en beneficio de nuestra comunidad científica particular, que en nuestro caso es la investigación biomédica.

Creo que lo estamos haciendo muy, muy bien porque nuestro software funciona de manera extremadamente eficaz en las computadoras más grandes del mundo. Pero era el mismo software desde la computadora portátil a estas grandes computadoras, por lo que el investigador puede aprenderlo en su computadora portátil y usarlo hasta la gran máquina. Del mismo modo, si lo desarrollamos para el automóvil grande, rápidamente se revierte al automóvil pequeño.

Nuestra tarea ahora es utilizar esta tecnología constantemente. Así que de 2006 a 2012 trabajamos para hacer posible la computación a petaescala. Nos hemos centrado en hacer que estos programas sean capaces de simular sistemas muy, muy grandes, cientos de veces más grandes que antes, y también en analizar y mostrar los resultados. Esto significó trabajar en dos frentes: en el frente de la simulación real que realiza el programa NAMD y en el frente de la visualización.

Ahora esto es viejo. Entre las nuevas tecnologías en curso, creemos que la próxima tecnología para la próxima generación de computadoras serán los chips ARM, que hemos logrado integrar con mucho éxito.

Pero un factor que nunca ha sido más importante es el uso del poder. Ahora no solo estamos adoptando la próxima generación de chips para nuestro software, tal vez dos o tres años antes de la primera vez que los científicos fuera de nuestro grupo lo usen, sino que necesitamos perfilar todos nuestros algoritmos y todas nuestras estrategias computacionales. .

Antes, lo único que importaba era la velocidad de cálculo. Ahora hablamos de escalabilidad y de hacer modelos más grandes que realmente hagan uso de máquinas más grandes, y en el laboratorio hablamos constantemente de perfiles de potencia. ¿Dónde podemos reducir el consumo de energía? ¿Qué nuevas estrategias computacionales debemos adoptar? Entonces, la cuestión del consumo de energía está entrando en nuestro trabajo de desarrollo.

Calendae: Entonces, realmente no hay tantas supercomputadoras en la base, entonces, ¿dónde y cómo está probando estas ideas?

Klaus Schulten: Primero, son los teléfonos inteligentes y las tabletas. Nuestra prioridad es apoyar el software que requiere la máquina para que a través de un teléfono inteligente o tableta tenga otro dispositivo de entrada, un monitor adicional o un dispositivo de salida adicional. Pero ya estamos en camino de ejecutar todos los programas en tabletas y teléfonos inteligentes.

Estuvo bien, pero el problema principal es que tienes un monitor muy, muy pequeño, por lo que tienes que desarrollar una nueva interfaz de usuario y eso lleva tiempo y ha creado un cuello de botella para cuando podamos lanzar nuestro software en estos dispositivos.

Sin embargo, el punto principal es que las computadoras se construirán con este tipo de chips que la gente espera, y luego estos tipos de chips estarán disponibles en una forma en la que puede conectarlos para otras interacciones y usarlos para procesar. También estaremos listos para ese momento.

Hemos aprendido que estos son chips muy inteligentes que pueden manejar problemas de energía de una manera mucho más flexible, lo que nos permitió agregar una dimensión a nuestra estrategia computacional que nunca antes habíamos tenido: una cultura totalmente nueva para la que prepararnos. para la próxima generación de informática.

Calendae: Hablemos brevemente sobre lo que las GPU han prestado a la biología computacional en general.

Klaus Schulten: Han sido una gran ventaja porque van en dos direcciones. La primera es que hacen posible una computación muy potente en el laboratorio por mucho menos dinero. Es un procesamiento muy económico y muy potente. Entonces, el tipo de cálculos que hasta hace dos o tres años requerían una computadora de $ 50,000 ahora se pueden hacer con un grupo de GPU de unos pocos miles de dólares o incluso con una sola tarjeta GPU.

En la dirección opuesta, se han hecho posibles muchos cálculos más pequeños a través de GPU. Estábamos al comienzo de la demostración con nuestro primer documento extendido para GPU, pero hoy en día muchos laboratorios funcionan muy bien en él.

Así que esta es la poderosa computadora de los pobres, que ha sido esencial para que prolifere la metodología y la cultura de la computación dentro de la comunidad biomédica.

Finalmente llegamos a los aceleradores, que es donde Cray jugó un papel tan importante, particularmente al aumentar la velocidad de Titan y Blue Waters en más de un factor de dos. Por lo tanto, a menudo nosotros también podemos ser mejores: todavía estamos luchando por obtener más potencia de las GPU. Pero el efecto es que lo que inicialmente esperábamos obtener de estas computadoras se ha duplicado o ahora se ha triplicado.

Y esto, por supuesto, es cuando el poder de la computadora está dando forma a la frontera científica. Cuando de repente puedes ir el doble de lejos, llegar el doble de rápido en un nuevo territorio, este es un gran avance científico. Esto es lo que han hecho posible las GPU.

Recuerda compartir en en tu Twitter y Facebook para que tus colegas lo disfruten

??? ? ? ???

Comparte