Wall Street-HPC Lovefest; Clásico de otoño de Intel - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Wall Street-HPC Lovefest; Clásico de otoño de Intel

Hola otra vez. Yo soy Simón Sánchez y en esta ocasión vamos a hablar sobre Wall Street-HPC Lovefest; Clásico de otoño de Intel

Las experiencias humillantes son generalmente instructivas. El verano pasado, mi hijo mayor comenzó su primer trabajo después de la universidad en una compañía de inversiones. Desde el primer día, se le proporcionó una estación de trabajo con dos monitores, algo con lo que yo y la mayoría de mis colegas solo soñamos. Un monitor adicional cuesta ahora solo unos pocos cientos de dólares, pero para la mayoría de las empresas esto representa un gasto que no puede ser justificado fácilmente por todo el personal. La lección aquí es que las compañías financieras asumen que maximizar la productividad es una forma directa de aumentar las ganancias. Y quizás más que cualquier otra industria, la industria de servicios financieros utiliza la tecnología como palanca para hacerlo.

Tal vez por eso el perfil relativamente bajo HPC en la conferencia de Wall Street en Nueva York parece atraer más y más atención con cada año que pasa. El sector financiero se ha convertido rápidamente en el principal motor del mercado de muchas tecnologías de la información de alta gama. El lunes pasado, cientos de asistentes de la industria escucharon sesiones sobre cómo se está utilizando hardware y software de vanguardia para cambiar el panorama del comercio de mercado y el análisis financiero.

En una conversación reciente que tuve con Donna Rubin, directora de servicios financieros mundiales de Sun Microsystems, hablamos sobre la cara cambiante del negocio de servicios financieros.

“¿Qué está impulsando esto? La «electrificación» del mercado «, explicó Rubin.» Si vas al NASDAQ y miras cuántas personas hay realmente en el piso, no hay tanta gente como solía haber. Pero eso no significa que el comercio no suceda. en el ciberespacio y los volúmenes están aumentando fenomenalmente «.

Con la introducción de este año de Reg NMS, la regulación de la SEC diseñada para modernizar el sistema de mercado interno y crear un campo de juego nivelado para los comerciantes de acciones, el nuevo desafío es ofrecer una ejecución hábil basada en el precio, el lugar y velocidad. Si bien el uso de tecnologías como InfiniBand, procesadores multinúcleo, clústeres y grid computing en el sector financiero está ahora bien establecido, también están atrayendo la atención tecnologías más exóticas como procesadores Cell, GPU y FPGA.

Los FPGA, en particular, parecen haberse hecho un hueco en este campo. Las solicitudes conjuntas para aumentar geométricamente los volúmenes de datos del mercado y reducir la latencia han llevado al desarrollo de dispositivos equipados con FPGA que realizan el preprocesamiento en tiempo real de los datos del mercado. Exegy y ACTIV Financial Systems tienen plataformas de datos de mercado que utilizan FPGA para procesar hasta un millón o más de mensajes con latencias de menos de milisegundos.

Una vez que se capturan los datos sin procesar del mercado, los FGPA también se utilizan como aceleradores para realizar análisis financieros para aplicaciones como el precio de opciones. Tener FPGA lo más cerca posible de las CPU del host garantiza que la aceleración del código valga la pena. Con la llegada de la estrategia Turrency de AMD y las licencias HyperTransport consistentes, los FPGA se pueden conectar directamente a los zócalos Opteron. Esta semana en el Intel Developer Forum (IDF), nos enteramos de que Intel ha obtenido la licencia de su tecnología de bus frontal para permitir que XtremeData y Nallatech también creen plug-ins FPGA para plataformas Xeon. (Consulte nuestro artículo destacado en la edición de esta semana para obtener más información sobre este tema).

Las GPU también están recibiendo su atención. En la conferencia de Wall Street, NVIDIA demostró un sistema de escritorio que contiene tres GPU Tesla capaces de evaluar 150.000 opciones por segundo. Según NVIDIA, dos de estos sistemas son capaces de valorar todo el mercado de opciones sobre acciones de EE. UU. En menos de un segundo. Además, Level-3 Finance utilizó hardware de NVIDIA para acelerar la aplicación de precios de acciones en un factor de 10.

Tanto las FPGA como las GPU parecen emerger como tecnologías viables de aceleración basadas en materias primas. Sin embargo, cada uno tiene sus inconvenientes. Las FPGA han sufrido de herramientas de desarrollo de programación inmaduras, mientras que las GPU actualmente carecen de algunas características de hardware, como compatibilidad con FP de 64 bits y corrección de errores para la memoria en el chip. Todas estas deficiencias se pueden corregir, especialmente si los clientes con mucho dinero, como los de Wall Street, lo solicitan. Pero no está claro si ambas arquitecturas sobrevivirán como aceleradores de aplicaciones, ya que ambas se ofrecen para desempeñar funciones muy similares.

“En mi opinión, son realmente FPGA versus GPU. Esa es la batalla «, dijo Geno Valente, vicepresidente de marketing de XtremeData. Él cree que otras soluciones de aceleración basadas en tecnología ClearSpeed ​​y Cell BE tendrán una tarea más difícil. Valente especula que las soluciones basadas en esas plataformas tendrán que atraer suficientes clientes. para que sus desarrolladores puedan seguir innovando con el tiempo.

Podría ser. El procesador Cell BE parece un estuche especial. Si IBM lo desea, puede utilizar su posición como ecosistema de proveedor único para llevar Cell al mercado. Esta semana, la compañía anunció una plataforma de negociación algorítmica basada en cuchillas impulsada por células. En el mitin de Wall Street, Dave Turek, vicepresidente de Deep Computing de IBM, habló sobre la tecnología Cell, así como sobre otras soluciones de IBM, como su nueva tecnología de computación de flujo empresarial, que estrenamos en junio.

Sun Microsystems también tiene una variedad de soluciones para lanzar en Wall Street. El enfoque de la compañía en la eficiencia energética y la densidad de procesamiento funciona bien en las capitales financieras con limitaciones de energía y espacio como Nueva York, Londres y Tokio. Con la excepción de las plataformas SPARC T1 y T2 altamente multiproceso que tienen como objetivo cargas de trabajo de alto rendimiento de transacciones, la mayoría de las ofertas financieras de Sun son más similares a los clústeres InfiniBand tradicionales basados ​​en x86. Sun utilizó asociaciones clave para penetrar en este mercado. Esta semana, Sun, Cisco y Reuters se unieron para proporcionar una solución de baja latencia para el comercio automatizado y algorítmico. Aún no se sabe nada sobre los clientes potenciales.

Refutación de Intel a Barcelona

Mientras tanto, en la costa izquierda, Intel utilizó la reunión de las FDI en San Francisco para anunciar su próxima tecnología y lanzar las recientes ofertas de cuatro núcleos de AMD como noticia de ayer. La mayor parte de la conversación sobre el producto involucró a Penryn (2007), Nehalem (2008), Larrabee (probablemente 2009) y la generación Westmere de 32 nm (2009), de la que no hablaré aquí.

Como se informó anteriormente, Intel ha confirmado que la primera ronda de la familia Penryn de 45 nm, los procesadores Xeon «Harpertown», se presentará el 12 de noviembre. Las comparaciones de referencia con los procesadores AMD ya son visibles. El Informe técnico no solo obtuvo algo de silicio Harpertown de preproducción, sino también algunos Opterons de cuatro núcleos de edición especial (SE) que presumiblemente se lanzarán en el mismo período de tiempo. Los puntos de referencia discutidos en Pieza del informe técnico incluir algunos códigos CFD, imágenes y renderizado, que deberían ser de particular interés para la multitud de HPC.

Los resultados no son particularmente inspiradores si eres fanático de Opteron. El nuevo Xeon E5472 de 3,0 GHz prácticamente dominó a los siguientes Opteron 2360 SE de 2,5 GHz en casi todos los puntos de referencia, aunque no por mucho en algunos casos. En general, los Opteron fueron mejores en términos de rendimiento por vatio, pero cuando se midió como la energía gastada en el trabajo computacional realizado, el Xeon E5472 fue en realidad el mejor. Donde los Opteron realmente sobresalieron, estuvo inactivo. Pero alardear de que su hardware es muy eficiente para no hacer nada no es exactamente un tema de campaña publicitario excelente.

Debe decirse que el E5472 probablemente costará alrededor del doble del costo del 2360, por lo que las comparaciones de referencia son algo falsas. Un chip más comparable probablemente sería el próximo Xeon E5430, pero Tech Report no lo ha evaluado. Creo que cuando se lancen más emparejamientos de procesadores de manzana a manzana, los Opteron se verán mucho mejor. Pero los resultados preliminares sugieren que AMD tendrá que aumentar la velocidad del reloj si quieren nadar con los nuevos Harpertowns.

Como dije anteriormente, el desafío más abrumador de AMD será cuando Intel lance su familia de procesadores Nehalem en la segunda mitad de 2008. Con la introducción de su controlador y sistema de interconexión QuickPath (antes CSI) similar a HyperTransport. memoria integrada, Intel habrá cancelado las principales ventajas arquitectónicas de AMD. Nehalem también representará la incursión de la compañía en el diseño modular, donde los núcleos, los tamaños de caché y E / S se pueden combinar y combinar para crear una amplia gama de configuraciones de procesador. Según Intel, el diseño de Nehalem está completo y las obleas de preproducción ya están en la etapa de fabricación.

El fabricante de chips también reveló (de hecho confirmó) que Larrabee será de hecho una implementación de arquitectura de muchos núcleos de Intel de un procesador tipo GPU. Digo tipo de GPU porque Intel no está hablando de la tecnología como si solo estuviera destinada a tareas de gráficos tradicionales. En su discurso de apertura, el CEO de Intel, Paul Otellini, dijo lo siguiente sobre la misión de Larrabee:

“Creemos que esto trae los beneficios de la arquitectura Intel en una matriz de muchos núcleos a los segmentos de computación visual de alto rendimiento del mercado. Proporcionaremos teraflops de rendimiento con este chip. Y una de las cosas que creemos que es una ventaja única es que será fácilmente escalable para los desarrolladores de software. No solo tiene compatibilidad de código con todo lo que está familiarizado en el espacio de la IA, sino que también tendrá un caché compartido para poder convertirlo en un modelo de programación fácil para usted en la comunidad en desarrollo. Creemos que tiene aplicaciones en supercomputación, servicios financieros y aplicaciones para la física y la salud. Pero también tiene otra cosa en la que será muy bueno, y son los gráficos. Y una de las maravillas aquí es que no depende de un nuevo paradigma de software. Nuevamente, los mismos modelos de programación existentes que todos ustedes conocen hoy se aplicarán a este dispositivo a medida que nos mueva hacia gráficos discretos «.

Algo para todos. En cualquier caso, dijo que están en desarrollo y esperan tener una demostración del producto en 2008.

El único inconveniente real del partido de las FDI fue Gordon Moore, quien especuló sobre el final de su amada «Ley de Moore». Solo le da otros 10 o 15 años antes de chocar con las limitaciones fundamentales de la física de semiconductores. Por otro lado, Moore nos dejó algunos comentarios optimistas sobre la naturaleza de los «límites fundamentales»:

«[I]Me sorprende cómo los tecnólogos han podido seguir presionando a los que nos precedieron. Por lo que recuerdo, los límites fundamentales nos muerden durante dos o tres generaciones. Hasta ahora hemos podido sortearlos. «

—–

Como siempre, los comentarios de Calendae son bienvenidos y alentados. Escríbeme, Michael Feldman, un [email protected].

Puedes compartir en tu Facebook para que tus colegas opinen

??? ? ? ???

Comparte