Extracción para eficiencia según la ley de Moore - Calendae | Informática, Electrónica, CMS, Ciberseguridad

Extracción para eficiencia según la ley de Moore

Hola y mil gracias por leerme. Te habla Simón Sánchez y hoy hablaremos sobre Extracción para eficiencia según la ley de Moore

Las computadoras son mucho más que la interfaz con la que la mayoría de los humanos conectados a la web interactúan a diario. Si bien muchos de nosotros damos por sentado las miles de instrucciones que deben comunicarse a través de una amplia gama de hardware y software, este no es el caso de los científicos e ingenieros informáticos que trabajan para reducir nanosegundos el tiempo de computación, personas como Mark, investigador. Universidad de Wisconsin Hill.

Como profesor Amdahl de Ciencias de la Computación en la Universidad de Wisconsin, el trabajo del profesor Hill es identificar las eficiencias ocultas en la arquitectura de la computadora. Estudie cómo las computadoras toman ceros y unos y convierten este lenguaje binario en algo con una inclinación más humana, como las redes sociales y las compras Online. Para hacer esto, Hill rastrea la reacción en cadena desde el dispositivo informático hasta el procesador, el concentrador de red y la nube y luego de regreso.

La interesante e importante investigación del profesor Hill ha sido objeto de una reciente pieza característica por el destacado escritor científico Aaron Dubrow.

La opacidad de la computadora es principalmente una característica, no un error. «Nuestras computadoras son muy complicadas y nuestro trabajo es ocultar la mayor parte de esta complejidad la mayor parte del tiempo porque si tuvieras que lidiar con eso todo el tiempo, entonces no podrías hacer lo que quieras, ya sea resolver un problema o brindar entretenimiento». Hill explica.

Durante las últimas décadas, ha tenido sentido mantener oculta esta complejidad mientras prácticamente toda la industria informática sigue la ley de Moore. Dado que la potencia informática se duplica aproximadamente cada 24 meses, los sistemas más rápidos y baratos eran una cuestión de rutina. A medida que esta «ley» alcanza los límites de la practicidad desde una perspectiva atómica y financiera, los ingenieros informáticos se ven esencialmente obligados a comenzar a examinar todos los demás elementos computacionales que entran en juego para identificar eficiencias no explotadas. Esperar procesadores más rápidos ya no es una estrategia de crecimiento viable.

Un área en la que Hill se ha concentrado es en la realización de tareas informáticas. Determina el tiempo que tarda un procesador típico en completar una tarea común, como una consulta de Facebook o una búsqueda web. Está mirando tanto la velocidad general como la duración de cada paso individual.

Uno de sus éxitos tuvo que ver con un proceso bastante ineficiente llamado paginación que se implementó cuando la memoria era mucho más pequeña. La solución de Hill fue utilizar la paginación de forma selectiva empleando un método de traducción de direcciones más simple para ciertas partes de aplicaciones importantes. El resultado fue que los errores de caché se redujeron a menos del 1%. Una solución como esta permitiría al usuario hacer más con la misma configuración, reduciendo la cantidad de servidores que necesitarían y ahorrando mucho dinero en el proceso.

«Un pequeño cambio en el sistema operativo y el hardware puede traer grandes beneficios», señala Hill.

Hill adopta un enfoque computacional más unificado y confía en que existen ineficiencias ocultas en cantidades suficientes para compensar la desaceleración de la ley de Moore.

«Durante la última década, las mejoras de hardware se han ralentizado enormemente y queda por ver qué sucederá», dice Hill. “Creo que eliminaremos muchas ineficiencias y seguiremos ganando dinero. No serán como los más grandes que has visto antes, pero espero que sean suficientes para permitir nuevas creaciones, que es realmente de lo que se trata. «

El investigador con visión de futuro es un defensor del uso de protocolos de memoria virtual y aceleradores de hardware como las GPU para aumentar el rendimiento informático. La «computadora genérica» ​​es del siglo pasado, según Hill. «Ya no es apropiado», dice. “Es absolutamente necesario considerar dónde está esa computadora. ¿Está en un pedazo de polvo inteligente? ¿Está en tu móvil, portátil o en la nube? Hay varias limitaciones. «

Hill junto con docenas de los mejores científicos informáticos de EE. UU. Escribieron un archivo libro blanco de la comunidad describiendo muchos de los desafíos y cambios de paradigma que enfrenta la computadora en el siglo XXI. Estos incluyen una transición de una sola computadora a la red o centro de datos, la importancia de la comunicación en relación con el big data y la nueva realidad basada en la energía, donde el poder y la energía se están convirtiendo en limitaciones dominantes. El documento también describe las posibles tecnologías disruptivas que están empezando a surgir. Sin embargo, sin tecnologías milagrosas a mano, los informáticos deben hacer todo lo posible para optimizar el hardware y el software existentes.

Lea el artículo aquí:

http://www.cra.org/ccc/files/docs/init/21stcenturyarchitecturewhitepaper.pdf

Recuerda compartir en en tu Twitter y Facebook para que tus amigos lo consulten

??? ? ? ???

Comparte