En Wall Street, la carrera hacia cero continúa

Hola otra vez. Yo soy Simón Sánchez y en esta ocasión te voy a contar sobre En Wall Street, la carrera hacia cero continúa

Para satisfacer la necesidad actual de un procesamiento de transacciones más rápido y manejar el aumento resultante en el tráfico de mensajes, las empresas de servicios financieros están analizando cada aspecto de su infraestructura para reducir cualquier retraso en sus flujos de trabajo computacionales de extremo a extremo. -fin. Esta búsqueda para reducir las latencias en cada etapa del procesamiento de la negociación y para llevar a cabo otras tareas del hogar fue un tema común en la conferencia de mercados financieros de Computación de alto rendimiento en Nueva York la semana pasada.

Sesión tras sesión, los ponentes (que representan a las comunidades de proveedores y usuarios) discutieron cómo estaban abordando la latencia en la llamada «carrera cero».

Lee Fisher, gerente de desarrollo comercial mundial de HP para soluciones escalables de alto rendimiento en servicios financieros, inició la conferencia con un panel de discusión que puso la latencia en perspectiva.

«La latencia es igual al riesgo», dijo Fisher. «El problema no es la latencia en sí misma, sino la gestión de la latencia para reducir el riesgo». Él y otros en la conferencia señalaron, por ejemplo, que si los datos no están sincronizados, una organización toma decisiones basadas en información antigua relativa a la competencia.

A lo largo del día, los oradores discutieron cómo sus organizaciones estaban trabajando para reducir la latencia en los sistemas de comercio de servicios financieros. Y aunque la reducción de la latencia requiere un enfoque de sistemas coordinados, la mayoría de los debates del día destacaron cómo se examinan de cerca todos los aspectos de la operación de un extremo a otro. Esto incluye analizar el rendimiento de la CPU, el movimiento de datos, los sistemas de temporización y las propias aplicaciones.

Cuando se trata de hardware HPC, numerosas empresas han notado las tecnologías que ahora se emplean para reducir la latencia. Por ejemplo, Joseph Curley, Director de Marketing de Computación Técnica de Intel, habló sobre los esfuerzos para acelerar las decisiones impulsadas por el análisis en las empresas de servicios financieros.

«Se le pidió a Intel que produjera un procesador que se enfocara en reducir la latencia», dijo Curley. Señaló la clase de procesadores Xeon, destacando en particular el uso del X5698. El Xeon X5698 se basa en la microarquitectura de Westemere y comparte muchas características con otros chips Xeon 5600. Sin embargo, hay una gran diferencia. Ofrece una frecuencia de núcleo extremadamente alta de hasta 4,4 GHz. (HP, por ejemplo, ofrece un servidor DL ​​especial con este procesador para empresas de servicios financieros).

De cara al futuro, Curley dijo que espera que los nuevos procesadores Intel Sandy Bridge encuentren el favor de las empresas de servicios financieros. De cara al futuro, Don Newell, CTO, Grupo de productos de servidor de AMD, en una sesión diferente, mencionó el lanzamiento reciente de su arquitectura de microprocesador Bulldozer, que ofrece un rendimiento avanzado por vatio. Bulldozer se implementará en las CPU Interlagos (Opteron 6200) de AMD y, según Newell, estos chips ofrecerán un rendimiento total sustancialmente mayor que los procesadores Istanbul de la generación anterior.

Muchos de los oradores de la conferencia a lo largo del día señalaron que otros esfuerzos para reducir la latencia tienen como objetivo aumentar el rendimiento del código que se ejecuta en procesadores de múltiples núcleos. El trabajo aquí se centra en enhebrar y aumentar el paralelismo.

Las organizaciones de usuarios finales definitivamente están pendientes de este tipo de trabajo. Jens von der Heide, director de Barclays Capital, intervino en la discusión y señaló que hay interés en los procesadores más nuevos. Señaló que desde el punto de vista de los precios, los procesadores más nuevos «siguen siendo muy atractivos, lo que facilita la migración». Como ha sido el caso durante años, los últimos procesadores de alto rendimiento ahora cuestan lo mismo que los procesadores de gama alta del pasado.

Volviendo al comentario de Curley sobre el trabajo para aumentar el paralelismo, von der Heide estuvo de acuerdo en que ciertamente hay más discusión hoy sobre el papel de un solo hilo que de varios hilos. Sin embargo, desde su punto de vista, «el gran problema es que cuando se ejecutan muchos subprocesos, desea que todos vayan más rápido, por lo que el resultado es [we] Quiero más core. «

A medida que se avanza en estas áreas, otros aspectos de los flujos de trabajo de procesamiento comercial, como la E / S, naturalmente requieren atención. «Si tiene un servidor más rápido, necesita mover los datos allí más rápido», dijo Doron Arad, Director de Soluciones para Clientes de Mellanox. «Esto requiere una red de baja latencia».

Arad se da cuenta de que el problema se reduce a cómo encajan los datos en la memoria. Con este fin, las tecnologías de interés incluyen estructuras sin bloqueo, enfoques de omisión del kernel, aceleración de mensajes y acceso directo a memoria remota (RDMA).

Además, las organizaciones están ampliando su enfoque en la web. En el pasado, las empresas buscaban interruptores y cableado; ahora también incluyen NIC en la discusión de la latencia de la red. Con este fin, señaló que existe un uso a gran escala de InfiniBand en el mercado de servicios financieros. Haciendo eco de este punto, Fisher notó que estaba viendo un uso creciente de InfiniBand y NIC Ethernet 10G.

Arad agregó que también estaba viendo una demanda de una NIC que admita tanto Ethernet como InfiniBand. Rob Cornish, gerente de infraestructura y estrategia de TI de la Bolsa Internacional de Valores (ISE), está de acuerdo y señala que le gustaría poder elegir InfiniBand o Ethernet en función de las necesidades de una aplicación en particular.

Además de la discusión, varios asistentes a la conferencia dijeron que además de las NIC Ethernet 10G para sus servidores, también estaban buscando soporte para Ethernet 40G en sus conmutadores de tejido de interconexión.

Aceleración de aplicaciones y alimentación de datos

A medida que las empresas de servicios financieros reducen la latencia mejorando los servidores y el hardware de red, el siguiente paso en el que buscar mejoras de rendimiento son las aplicaciones. Este fue el tema de discusión en una sesión de la tarde buscando formas de diseñar las mejores soluciones para lo que se ha llamado «optimización de Wall Street».

Específicamente, David Rubio, consultor senior de Forsythe Solutions Group, discutió la necesidad de perfilar las aplicaciones. Señaló que las organizaciones de servicios financieros deben utilizar las herramientas adecuadas para comprender mejor los cuellos de botella que pueden ocurrir con cada aplicación crítica.

Un desafío es que a veces se hacen suposiciones que resultan ser incorrectas. Por ejemplo, una organización podría pensar que una aplicación está optimizada porque podría usar el compilador más reciente, pero aún podría sufrir un rendimiento deficiente debido al uso de rutinas de biblioteca de hace 20 años. O una aplicación puede estar usando un algoritmo de recolección de basura que no es apropiado para un proceso específico.

«Necesita visibilidad de las aplicaciones y cómo interactúan con el sistema», dijo Rubio. Notó que el problema básico se reduce a esto: «El software se ejecuta como un hilo en un núcleo. ¿Qué está haciendo el hilo? ¿Está ejecutando código o está esperando algo? Si un hilo está bloqueado, ¿qué está esperando?» la necesidad de utilizar herramientas comunes del sistema operativo como truss, strace, snoop y tcpdump o DTrace en sistemas Solaris.

También se habló de utilizar LANZ, el analizador de latencia de Arista Network. Dentro del mercado de servicios financieros, LANZ se utiliza para obtener una mayor visibilidad en la red para ver si ocurren o no micro ráfagas de actividad comercial. Ofrece intervalos de informes de menos de milisegundos para poder detectar la congestión y enviar mensajes a nivel de aplicación más rápido de lo que algunos productos pueden reenviar un paquete.

Para complementar estos enfoques, algunos oradores hablaron sobre la necesidad de aceleración de hardware, incluido el uso de FGPA y GPU para mejorar el rendimiento de las aplicaciones. Sin embargo, un asistente a la conferencia planteó que en algunas aplicaciones, como las que se encuentran en el mercado de futuros, hay muchos cambios en las fuentes de datos, por lo que es difícil implementarlos en hardware exótico.

Esto provocó algunas discusiones sobre el tema de la alimentación de datos. Por supuesto, optimizar el hardware y el software de una empresa puede reducir las latencias hasta ahora solo si los datos externos necesarios en los cálculos y las operaciones (y proporcionados por los principales intercambios) no se entregan de manera oportuna. Los intercambios que proporcionan los datos están recurriendo a tecnologías como la ubicación conjunta y la aceleración de hardware para reducir cualquier retraso al final de la operación.

A medida que la discusión evolucionó a lo largo del día en la conferencia, se hizo cada vez más claro que con todos estos aspectos involucrados en la carrera hacia cero, un elemento clave para reducir la latencia es el papel del integrador de sistemas.

El consenso en la conferencia fue que la forma de reducir la latencia era adoptar un enfoque de soluciones, quizás administrado por un integrador de sistemas. El enfoque debe buscar formas de optimizar los sistemas para reducir los retrasos en el rendimiento de la CPU, el rendimiento del host, las redes, incluida la NIC, y las fuentes de datos de los principales intercambios.

No te olvides compartir en tu Facebook para que tus colegas lo flipen

??? ? ? ???

Comparte