¿Cuándo es la nube adecuada para HPC?

Hola, un placer verte por aquí. Soy Simón Sánchez y en esta ocasión hablaremos sobre ¿Cuándo es la nube adecuada para HPC?

En las discusiones sobre computación en la nube, como en la mayoría de los discursos de hoy, las opiniones firmes son la norma. La nube es el camino del futuro o una táctica de marketing poco realista, y cuando el tema cambia a la ejecución de aplicaciones HPC en la nube, las vistas son, aunque sea, más controvertidas.

Preguntas como «¿debo alquilar o comprar?» no significa mucho sin un ejemplo específico al que hacer referencia, y esto es cierto independientemente de la aplicación que se esté considerando. La mejor respuesta suele empezar con «depende …»

Un reciente artículo de Jeff Layton, un conocido tecnólogo de la industria, demuestra un enfoque más equilibrado del tema de la nube HPC. El escribe:

No creo que el cambio a la computación en la nube para algunas aplicaciones de HPC se esté produciendo porque un CIO o director de informática de investigación haya visto un comercial de computación en la nube y piense que suena realmente interesante. Más bien, creo que HPC tiene cargas de trabajo existentes que se adaptan bien a la computación en la nube y, de hecho, pueden ahorrar dinero en comparación con las soluciones tradicionales. Quizás lo más importante es que creo que HPC ha evolucionado para incluir cargas de trabajo no tradicionales y se está adaptando para adaptarse a esas cargas de trabajo, en muchos casos utilizando la computación en la nube para hacerlo.

Layton confirma su punto con dos ejemplos. El primer escenario es la ejecución masiva simultánea. En un centro de HPC, un equipo de investigadores debe examinar entre 25.000 y 30.000 conjuntos de datos diferentes como parte de un escaneo de perímetro. La mayoría de las veces, estas son aplicaciones que solo toman un par de minutos y no producen muchos datos. Un segundo grupo de investigadores de sistemas operativos y seguridad está explorando diferentes simulaciones con diferentes entradas. El proceso implica ejecutar miles de trabajos simultáneamente y luego buscar resultados. Ambos grupos necesitan entre 50.000 y 100.000 núcleos para ejecutar sus aplicaciones. La métrica que les importa es el recuento de núcleos y no el rendimiento por núcleo, dice Layton.

Layton agrega que inicialmente pensó que esta HPC tenía una carga de trabajo única, pero desde entonces se ha encontrado con más usuarios con requisitos similares. «Si bien esto puede no describir su carga de trabajo particular», escribe Layton, «varios centros encajan en este escenario y este número está creciendo rápidamente».

El segundo caso de uso son los servicios web. No, este no es un caso de uso de HPC en el sentido tradicional, pero según Layton, existe una «creciente necesidad de alojar servidores para cursos o capacitación, para sitios web (interna y externa) y otras búsquedas generales relacionadas con la computadora donde las aplicaciones no son paralelas o incluso pueden no ser «científicas». » Layton dice que algunas personas han apodado a esta «computadora Ash and Trash» para distinguirla de las aplicaciones HPC estándar. [Editor’s note: A Google sanity-check came up short on the term “ash-and-trash” in the context of IT speak, but according to this Vietnam War jargon website, the term referred to any type of non-combat aviation mission.]

Layton continúa describiendo varios escenarios en los que alquilar ciclos bajo demanda tiene más sentido que hacer el trabajo internamente. Usando un ejemplo del mundo real de Cycle Computing, determina que «la computación en la nube es la mitad del costo de un [virtualized] sistema para estas cargas de trabajo. «

Uno de los aspectos más destacados de este artículo es que las cargas de trabajo de HPC están cambiando. Tienen un conjunto de características y requisitos diferente al de las aplicaciones HPC tradicionales y, en muchos casos, es beneficioso ejecutar estas cargas de trabajo en una nube externa (pública). Los beneficios incluyen reducción de costos y recursos in situ gratuitos para cargas de trabajo HPC tradicionales.

Layton escribe:

“Al principio, fue bastante fácil alejarse de la computación en la nube para las cargas de trabajo HPC tradicionales. Después de todo, «HP» significa «alto rendimiento» y hacer cualquier cosa para reducir el rendimiento es contraproducente. Estás pagando más y obteniendo menos. Sin embargo, continuamente se agregan nuevas cargas de trabajo a HPC que pueden ser muy diferentes de las aplicaciones MPI clásicas en HPC y tienen diferentes características. La cantidad de computación en estas nuevas cargas de trabajo está aumentando a un ritmo alarmante, tanto que creo que HPC está dando paso a la informática de investigación «.

Muchas de estas aplicaciones informáticas de investigación comparten requisitos de recursos similares. La productividad para esta clase de cargas de trabajo tiene menos que ver con la mejora del rendimiento por núcleo y, en cambio, se logra ejecutando varias instancias de la aplicación al mismo tiempo, lo que la nube pública funciona bien con la ilusión de ciclos ilimitados. Como suele ocurrir en HPC, el enfoque óptimo es el que mejor se adapta a la aplicación en cuestión.

No te olvides compartir en en tu Twitter y Facebook para que tus amigos lo lean

??? ? ? ???

Comparte