¿El multinúcleo matará a x86? - Calendae | Informática, Electrónica, CMS, Ciberseguridad

¿El multinúcleo matará a x86?

Hola, ¿qué tal colega?. En el teclado Simón Sánchez y en esta ocasión vamos a hablar sobre ¿El multinúcleo matará a x86?

Los desafíos de hardware y software de las CPU multinúcleo / muchos núcleos se han criticado en esta publicación durante varios años. La suposición era que el ingenio geek eventualmente superaría los obstáculos. El problema de la pared de memoria daría lugar a arquitecturas de hardware innovadoras y los nuevos enfoques de desarrollo de software harían que la computación multiproceso sea lo suficientemente práctica para un uso generalizado. Pero, ¿y si eso no sucede?

Hay uno bueno artículo en la edición de enero / febrero de 2009 de Technology Review, que describe los desafíos de la computación multinúcleo y habla sobre algunas de las estrategias de software que están siguiendo Intel, Microsoft y otros en la industria. Pero la parte más interesante del artículo es hacia el final, donde el

Entonces, ¿cuál es la desventaja si falla la computación multinúcleo? ¿Cuál es el impacto probable en nuestra cultura si tomamos un zig técnico que debería haber sido un zag y de repente no podemos usar los 64 núcleos de procesador en nuestras futuras computadoras portátiles?

Para dar un giro positivo a este resultado, el

«¡No puedo esperar!» dice Steve Wozniak, el inventor del Apple II. «Revocar la ley de Moore crearía un renacimiento para el desarrollo de software», dice. «Sólo entonces finalmente podremos crear software que se ejecutará en una plataforma estable y duradera».

Por supuesto, la otra forma de crear una plataforma estable es escalar el modelo de software para que la cantidad de núcleos sea transparente para la aplicación. La idea es que pasar de 8 núcleos a 64 núcleos automáticamente le da a una aplicación un mejor rendimiento, sin tener que volver a codificarla o incluso recompilarla. Este es el impulso detrás del trabajo que Intel, Microsoft y los investigadores universitarios están haciendo hoy.

Algunas luminarias de la industria, como Profesor David May La Universidad de Bristol cree que el problema real es replicar núcleos utilizando arquitecturas heredadas, ya que las CPU convencionales como x86 nunca se diseñaron para el procesamiento paralelo. Elaboró ​​su posición en octubre en un semanario de electrónica. artículo sobre las trampas de la programación multinúcleo:

Los intentos actuales de utilizar multinúcleo en el mundo de la informática tradicional, como los esfuerzos de Intel y Microsoft con un grupo de universidades estadounidenses, podrían estar condenados al fracaso. «Creo que ellos (Intel y Microsoft) están tratando de resolver un problema diferente», dijo May, «están tomando todas las aplicaciones de PC y poniéndolas en multi-core. Este es un problema muy diferente y, en mi opinión, no tendrán mucho éxito. Tomar programas secuenciales e intentar ejecutarlos en paralelo es prácticamente imposible «.

May también es el director de tecnología de XMOS Semiconductor, una empresa que ha desarrollado una arquitectura multinúcleo que utiliza «silicio definido por software» para combinar algunos de los mejores atributos de los ASIC y los FPGA. El procesador resultante está destinado al mercado de la electrónica de consumo.

Quizás en la misma línea que la tecnología creativa Procesador Zii recién anunciado, que también afirma utilizar silicio definido por software en su nuevo chip de 10 gigaflops. Al igual que el silicio XMOS, Zii está dirigido al espacio del consumidor, aunque el Sitio web el video está hiperventilado sobre la construcción de una supercomputadora petaflop con solo seis racks de procesadores Zii. Quizás si fueran IBM, realmente lo intentarían.

En cualquier caso, para la mayoría de los tipos de procesamiento del lado del cliente, la arquitectura x86 puede ser un verdadero callejón sin salida. Desde que Internet se ha convertido en el centro del universo informático, las PC se han transformado de dispositivos informáticos genéricos a clientes ligeros. Esto continuará a medida que más y más computadoras se trasladen a la nube. A medida que los clientes se vuelven cada vez más delgados, la carga de procesamiento principal es la transcodificación de datos, que generalmente se puede realizar de manera más eficiente utilizando silicio más especializado como GPU, FPGA, DSP y quizás estos nuevos dispositivos de silicio definidos por software. concepción. En este sentido, las PC se parecen cada vez más a dispositivos portátiles.

¿A dónde iría la computación del lado del servidor, especialmente HPC? Para el rendimiento y la capacidad de procesamiento, las arquitecturas basadas en CPU aún ofrecen una arquitectura de procesamiento razonablemente natural. Pero para muchas aplicaciones de HPC, y para las capacidades de supercomputación en particular, las arquitecturas inherentemente paralelas de GPU, procesadores celulares y FPGA ofrecen una mejor solución (aunque todavía se requiere un complemento de CPU en este punto). El alto nivel de interés en GPGPU, procesadores celulares y FPGA es una indicación de que la supercomputación puede alejarse de las CPU convencionales.

La economía dictará que la HPC convencional seguirá dependiendo de las mismas arquitecturas de procesador que se utilizan en la electrónica de consumo. Pero algún día, esos chips pueden ser algo diferente a x86.

Recuerda compartir en tu Facebook para que tus colegas opinen

??? ? ? ???

Comparte