El futuro de la gestión de la carga de trabajo - Calendae | Informática, Electrónica, CMS, Ciberseguridad

El futuro de la gestión de la carga de trabajo

Hola otra vez. Yo soy Simón Sánchez y esta vez hablaremos sobre El futuro de la gestión de la carga de trabajo

El ensayista Paul Valery bromeó una vez: «El problema de nuestro tiempo es que el futuro no es lo que solía ser». Ciertamente, hay algo de verdad en esto. El futuro de la gestión de la carga de trabajo sigue evolucionando; definitivamente no es lo que solía ser.

Al mirar hacia el futuro de la gestión de cargas de trabajo, vemos tres tendencias principales: información sobre las aplicaciones, conocimiento de big data y HPC en la nube. Las tendencias están interrelacionadas y las discutiremos a su vez.

Más información sobre la aplicación

Primero, los administradores de cargas de trabajo deben tener una visión más profunda de las aplicaciones que están ejecutando. Cuanto más profundo sea el administrador de carga de trabajo para comprender la carga de trabajo, más eficientemente podrá planificar, administrar y adaptar el entorno informático. Los administradores de cargas de trabajo de hoy comprenden los requisitos básicos de las cargas de trabajo y pueden monitorear el progreso de una aplicación. Sin embargo, se puede hacer más. En el futuro, veremos más énfasis en comprender el propósito de una aplicación y las métricas clave. Si el administrador de la carga de trabajo comprende las necesidades actuales y futuras de la aplicación, puede tomar decisiones mucho mejores. Las métricas como el ancho de banda de E / S, la asignación de memoria, el espacio de almacenamiento, los ciclos de CPU y GPU, etc., ayudan al administrador de carga de trabajo a comprender una aplicación para administrarla de manera óptima.

Las métricas específicas de la aplicación, como las simulaciones por segundo, los genes emparejados por segundo, etc., son más importantes que las métricas genéricas de CPU y memoria. Describen mejor el rendimiento de una aplicación. Al monitorear estas métricas específicas de la aplicación, el administrador de carga de trabajo puede comprender cómo las variables de todo el sistema afectan el rendimiento de la aplicación. Por ejemplo, un administrador de carga de trabajo consciente de la aplicación puede observar que el rendimiento de una aplicación en particular se degrada significativamente cuando se ejecuta al mismo tiempo que otra aplicación específica. Armado con estos datos, el administrador de carga de trabajo puede asegurarse de que las dos aplicaciones en conflicto no se estén ejecutando al mismo tiempo.

Conciencia de Big Data

En estrecha relación con la tendencia en el análisis de aplicaciones, vemos una creciente demanda de conocimiento de big data. La informática científica moderna funciona con grandes cantidades de datos, mucho más que nunca. La gestión de este flujo de datos es difícil; el futuro de la gestión de la carga de trabajo depende de poder gestionarla de forma eficiente.

En particular, las aplicaciones de Big Data requieren un rendimiento de E / S adecuado para la aplicación. Con varias aplicaciones ejecutándose simultáneamente en un clúster, el administrador de carga de trabajo debe comprender y satisfacer las necesidades de E / S de cada aplicación. Un administrador de carga de trabajo que reconoce big data podrá programar varias aplicaciones para que sus solicitudes de E / S no entren en conflicto, asegurando que el rendimiento de almacenamiento requerido esté disponible cuando sea necesario.

Los administradores de cargas de trabajo del futuro se integrarán directamente con el sistema de administración de almacenamiento. Esto permitirá que el administrador de carga de trabajo controle la asignación de E / S de cada aplicación, asegurando que ninguna aplicación esté monopolizando el ancho de banda de E / S. Cuando varias aplicaciones compiten por la misma unidad de disco física, el jefe de la impulsa temblores entre el servicio de cada una de las solicitudes en conflicto. Este conflicto de datos puede causar una degradación del rendimiento de 100 veces. Con el administrador de carga de trabajo administrando directamente el sistema de almacenamiento, puede eliminar esta paliza y aumentar drásticamente el rendimiento de la aplicación.

El rendimiento de E / S también depende en gran medida de la ubicación de los datos. En general, los administradores de cargas de trabajo actuales tratan los datos como bloques de bytes sin procesar, que se mezclan con poca comprensión de su contenido. En el futuro, los administradores de cargas de trabajo comprenderán cada vez más la estructura y los atributos de los datos. Por ejemplo, un futuro administrador de carga de trabajo podría comprender que una aplicación en particular utiliza datos estructurados que consisten en pequeños registros a los que se accede de forma aleatoria. El administrador de carga de trabajo podría asignar más operaciones de E / S por segundo a esa aplicación que una aplicación de procesamiento por lotes tradicional, que lee secuencialmente desde el disco. Al comprender las diferentes necesidades de E / S de diferentes aplicaciones, el administrador de carga de trabajo puede aprovechar estos factores en las decisiones de planificación.

Virtualización y HPC Cloud

Finalmente, anticipamos el aumento continuo de la virtualización y las nubes HPC. Esta es quizás la mayor tendencia futura para la gestión de cargas de trabajo. Históricamente, la virtualización era un anatema para los profesionales de la informática de alto rendimiento. El llamado impuesto a la virtualización, o penalización por rendimiento de la virtualización, era un precio demasiado alto para pagar por cargas de trabajo de alto rendimiento.

Sin embargo, en los últimos años, esta penalización ha disminuido hasta el punto de ser casi insignificante para muchas aplicaciones. Esta tendencia, combinada con la flexibilidad mucho mayor de la virtualización, ha hecho de la virtualización una herramienta en crecimiento en el arsenal de HPC. Las máquinas virtuales se pueden iniciar, detener, mover, archivar y modificar fácilmente y son más fáciles de planificar y controlar para el administrador de carga de trabajo. Esta mayor flexibilidad se traduce en una mayor utilización general del sistema y un mayor retorno de la inversión. Como resultado, cada vez más sitios de HPC están adoptando la virtualización para una variedad más amplia de cargas de trabajo.

Llevando la virtualización al siguiente nivel, las nubes HPC combinan el aprovisionamiento automatizado de máquinas con tecnologías de administración de cargas de trabajo, modelos de costo de pago por uso y envío de trabajos de autoservicio. En lugar de aprovisionar manualmente los nodos para nuevos trabajos informáticos, una nube HPC proporciona automáticamente el entorno adecuado según sea necesario, según los trabajos enviados. Estas tecnologías trabajan juntas para reducir costos y aumentar la utilización del sistema.

Las nubes HPC pueden ser públicas o privadas. Las nubes públicas son administradas por un tercero que brinda servicios de TI al público. Las nubes privadas son administradas por un sitio HPC en particular para uso personal, generalmente usando su propio hardware. Las nubes privadas ofrecen la flexibilidad y los beneficios económicos del modelo de nube, al mismo tiempo que proporcionan la seguridad y el control que prefieren muchos usuarios de HPC.

Las nubes HPC aumentan la accesibilidad y la flexibilidad de los sistemas HPC. Esto lleva HPC a una audiencia más amplia y reduce el costo total de HPC. A medida que más usuarios se benefician de la HPC, las demandas se vuelven más variadas. Los administradores de cargas de trabajo del mañana tendrán que hacer frente a estas realidades, tratando con más usuarios y una variedad más amplia de cargas de trabajo, tanto físicas como virtuales.

El futuro no es estático

Como sugirió Valery, el futuro no es estático. A medida que nuestro mundo cambia, las tendencias que impulsan el futuro cambian con él. El conocimiento de las aplicaciones, los macrodatos y las nubes HPC están cambiando la forma en que hacemos la informática científica. Los gestores de cargas de trabajo deben seguir evolucionando junto con estas tendencias.

Acerca de

Chad Harrington gestiona Computación adaptativaesfuerzos de marketing en todo el mundo. Antes de Adaptive, Chad fue asesor estratégico, ayudando a las empresas a aumentar el valor para los accionistas. Anteriormente, fue CEO y fundador de DataScaler, una empresa de tecnología de bases de datos adquirida por Oracle en 2010. Tiene un historial de éxito, ocupando puestos ejecutivos, de marketing y de desarrollo empresarial en empresas adquiridas por Symantec, McAfee, Check Point y Oracle. . Como veterano de la tecnología de la información, Chad habla en conferencias de la industria y en los medios de comunicación sobre tendencias tecnológicas como la computación en la nube, la arquitectura del centro de datos, la seguridad y el futuro de la informática. Ha aparecido en CNN, Marketwatch, Univision y en otros medios importantes. Chad tiene una licenciatura en ingeniería informática de la Universidad Brigham Young.

Deberías compartir en tu Facebook para que tus amigos lo lean

??? ? ? ???

Comparte