Los analistas especulan sobre Larrabee Flap - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Los analistas especulan sobre Larrabee Flap

Hola, un placer verte por aquí. Te escribe Simón Sánchez y hoy te voy a contar sobre Los analistas especulan sobre Larrabee Flap

Como informamos el lunes, la historia de vida de la arquitectura del procesador GPU de múltiples núcleos de Intel, con nombre en código «Larrabee», ha dado un giro interesante. A fines de la semana pasada, la compañía canceló el lanzamiento del primer producto Larrabee, que debutará el próximo año, dejando la puerta abierta para futuras ofertas de gráficos y HPC. Los analistas de TI reaccionaron con fuerza, ofreciendo una serie de especulaciones sobre la decisión de Intel y cuál podría ser el próximo movimiento de la empresa.

Al igual que muchos observadores de la industria gráfica, el analista Jon Peddie consideró que Intel había analizado los números de crecimiento planos para las GPU discretas y decidió que Larrabee no tenía lo necesario para competir en un mercado ajustado. Pero es menos seguro que Intel se reorganice y haga un segundo intento en una plataforma de GPU discreta o cambie el enfoque de la tecnología a HPC.

En su Blog Esta semana, Peddie dio a entender, como Intel pareció hacer también en su breve anuncio, que el siguiente paso para la tecnología sería, de hecho, la informática de alto rendimiento:

Intel ha tomado una decisión difícil y creemos que es correcta. El silicio de Larrabee ha sido prácticamente probado y la demostración en SC09 del rendimiento medido que alcanzó 1 TFLOPS (aunque con un pequeño ajuste de reloj) en una prueba de rendimiento SGEMM (4K de 4K Matrix Multiply) fue impresionante. Curiosamente, fue una medición por computadora, no una medición gráfica. Quizás la suerte había sido echada entonces (sin juego de palabras) con respecto al futuro de Larrabee.

Obviamente, 1 teraflop de precisión simple (para un chip overclockeado, por cierto) no es tan bueno para las GPU en estos días. Aunque los resultados de la prueba de rendimiento SGEMM no están disponibles para el silicio de las GPU NVIDIA y AMD en general, los chips gráficos ya se encuentran en territorio de varios teraflop, con aún más rendimiento en camino. Y como NVIDIA descubrió rápidamente, la mayor parte de la acción en HPC todavía se encuentra en el campo de la doble precisión.

Stacey Higginbotham de GigaOM cree que Intel puede haber intentado llevar el x86 más allá de sus capacidades naturales forzándolo en el molde de la GPU. Ella escribe esta semana:

Para Intel, la pregunta es: ¿hasta dónde puede extenderse la arquitectura x86? Su retraso de Larrabee sugiere que usar x86 para desarrollar un procesador de gráficos decente podría funcionar, pero no puede competir con GPU especiales.

La implicación aquí es que Intel aprendió la lección equivocada de Itanium, que es que la compatibilidad x86 triunfa sobre todo lo demás. En el caso de las GPU discretas, es menos probable que esto sea cierto. El ecosistema de software se centra en el nivel de API (por ejemplo, OpenGL y DirectX) en lugar de ISA. Pero para la informática GPU general, la compatibilidad con x86 aún puede tener sentido. Al igual que Peddie, Higginbotham cree que la segunda venida de Larrabee probablemente aparecerá en HPC.

Nathan Brookwood, analista principal de Insight 64, también espera que Intel entregue un Larrabee nuevo y mejorado. Él escribe:

Eventualmente, aunque no hasta 2011, surgirá una nueva generación de Larrabee. Intel siempre aprende de sus errores, por lo que este nuevo diseño evitará los problemas que paralizaron el diseño de primera generación. Pueden reemplazar el núcleo arcaico de la era Pentium utilizado en Gen 1 Larrabee con su nuevo núcleo Atom de bajo consumo energético (que aún no estaba completo cuando comenzaron Gen 1 en 2007) y así dominar el apetito de poder del chip. .

Sin embargo, Brookwood continúa diciendo que el retraso amortigua la ventaja natural de Intel en el software x86, ya que OpenCL, DirectCompute y CUDA serán mucho más maduros en dos años. Señala la reciente conferencia SC09 como prueba de cuánto impulso ya se ha creado en torno a la computación GPU.

La reacción más salvaje a la noticia de Larrabee proviene del reportero de la industria Bob Cringely, cuyo titular de comentarios lo dice todo: Intel comprará nVIDIA. Cringely especula que Intel quiere principalmente NVIDIA para sus chips Tegra integrados para plataformas móviles y ha tenido que deshacerse de Larrabee para eliminar la apariencia de crear un mercado de GPU no competitivo. El escribe:

.Intel tuvo que hacer algo en el momento en que AMD compró ATi. Ahora que Larrabee se fue, Intel no tiene más remedio que comprar otra compañía para mantenerse en la contienda. La única empresa de este tipo disponible es nVIDIA.

También especuló que la resolución de la demanda Intel-AMD era una configuración para evitar que AMD se opusiera a una futura fusión Intel-NVIDIA. Si eres fanático de las intrigas corporativas, te encantará la forma en que Cringely toma la situación. Pero esta idea de fusión tiene toda una serie de problemas, entre los cuales estas dos empresas son fundamentalmente incompatibles. Como escribe Jon Peddie en una secuela entrada en el blog: «Las diferencias culturales, la acritud y la beligerancia entre Intel y Nvidia son tan profundas que sería imposible fusionar las organizaciones sin algunos asesinatos». Después de ver al CEO de NVIDIA, Jen-Hsun Huang, abrazar esta filosofía empresarial recientemente Conferencia de tecnología de GPU, Tiendo a estar de acuerdo.

Mi opinión es que todavía es demasiado pronto para excluir a Intel del juego de computación GPU. Si bien este último retraso no ayudará a su causa, la idea general de usar un diseño x86 acelerado por vectores multipunto para aplicaciones de datos paralelos de propósito general es una estrategia razonable. El mayor error del fabricante de chips es que intentó disparar a dos objetivos en rápido movimiento, gráficos tradicionales y GPGPU, sin la experiencia de software para armarlos. No creo que vuelvan a cometer el mismo error.

Recuerda compartir en en tu Twitter y Facebook para que tus amigos lo flipen

??? ? ? ???

Comparte