La eficiencia energética acelera mientras la Ley de Moore se ralentiza

Opinión: Existen proyecciones que indican que las tecnologías de información y comunicaciones, envolviendo los ordenadores y los teléfonos móviles, consumirá el 14% de la electricidad de todo el mundo en el año 2020.

La eficiencia energética es cada vez más importante a medida que avanza la revolución informática. Con la explosión de la informática en los últimos 20 años y los beneficios sociales resultantes en los negocios, la educación, la investigación, la atención sanitaria y otros sectores, la energía y la huella medioambiental de la informática han crecido proporcionalmente. La evolución hacia el cloud computing, la conectividad “always on“, y las experiencias de inmersión que incluyen la realidad virtual y aumentada, añaden más demanda de rendimiento informático eficiente. Existen proyecciones que indican que las tecnologías de información y comunicaciones, envolviendo los ordenadores y los teléfonos móviles, consumirá el 14% de la electricidad de todo el mundo en el año 2020.

El resultado de todos estos factores es una fuerte demanda del mercado de tecnologías que mejoran el rendimiento del procesador, al tiempo que reducen el consumo de energía. La eficiencia energética se describe como la combinación de la mejora del rendimiento y el mantenimiento o reducción del consumo de energía.

¿Qué es lo siguiente?

Históricamente, las mejores en eficiencia energética han llegado en gran medida como un subproducto de la Ley de Moore- la duplicación del número de transistores en un chip aproximadamente cada dos años a través de circuitos cada vez más pequeños. En general, más transistores en un solo chip de ordenador y menos distancia física entre ellos lleva a un mejor rendimiento y eficiencia energética.

Sin embargo, los beneficios relacionados con la energía que se derivan de la Ley de Moore se están ralentizando, los que podría amenazar los futuros avances informáticos. Hemos llegado a un nivel en el que la miniaturización de los transistores está chocando contra los limites físicos. Como los transistores están continuamente volviéndose más pequeños, la corriente de fuga se convierte en un desafío de ingeniería aún mayor. Esto, en parte, ha llevado a muchos a preguntarse si la Ley de Moore continuará a su ritmo tradicional .

A lo largo de los años y de acuerdo con la Agencia Internacional de Eficiencia Energética, a medida que los transistores se iban volviendo más pequeños, la eficiencia energética mejoraba en tándem con la velocidad del procesador. Ahora, este aumento constante de la eficiencia se ha ralentizado. Por lo tanto, está cada vez más claro que los diseñadores de semiconductores tendrán que desarrollar medidas creativas para suplir la desaceleración de ganancias de eficiencia energética.

En AMD, hemos marcado como uno de los objetivos más importantes la mejora de la eficiencia energética de nuestros productos- para mejorar la eficiencia energética de nuestros procesadores móviles 25 veces entre 2014 y 2020. Nos referimos a esto como nuestra iniciativa 25×20. Lo bien que nosotros y otros de la industria respondamos a la ralentización del aumento de la eficiencia podría tener implicaciones importantes para la economía global y el medio ambiente, ya que la sociedad depende cada vez más de las tecnologías digitales.

Pero si los métodos tradicionales – es decir, las tecnologías de fabricación para una mayor densidad del transistor- no tienen el mismo impacto que antes ¿qué puede hacer la industria como compensación a fin de aumentar la eficiencia energética en un futuro? A nivel de procesador, las respuestas por ahora son nuevas arquitecturas de procesadores, tecnologías de energía eficiente y técnicas de administración de la energía.

Durante décadas, la unidad de procesamiento central (CPU) de un ordenador ha sido diseñada para ejecutar tareas de programación generales. Estos procesadores tienen éxito ejecutando las instrucciones de computación de manera serial- si la condición es A, a continuación haga B, después C etc.…, un paso tras otro- y cada vez utilizan más una variedad de técnicas complejas y algoritmos con el fin de mejorar la velocidad. Por el contrario, las unidades de procesamiento de gráficos (GPUs) son aceleradores especializados diseñados originalmente para pintar millones de píxeles de forma simultánea en una pantalla. Las GPUs hacen esto mediante la realización de cálculos en paralelo usando una arquitectura relativamente sencilla. Las CPUs y GPUs han funcionado tradicionalmente como procesadores separados, en chips o placas de circuitos integrados aislados dentro de un PC, consola de juegos, tableta, teléfono inteligente, y más recientemente en algunos servidores y superordenadores.

Hoy en día, la CPU y GPU se están integrando cada vez más dentro de una sola entidad, conocida en la industria como una Unidad de Procesamiento Acelerado (APU).

A la vez que se ha dado un importante paso en la dirección correcta, se ha trabajado para alinear los dos tipos de procesadores de manera armoniosa y heterogénea, y mejorar así el rendimiento y minimizar el consumo de energía. Esto ha llevado a un estándar de la industria emergente, conocido como la arquitectura de sistemas heterogéneos (HSA).

El efecto neto de la HSA es permitir que la CPU y GPU operen a la par dentro de la APU, reduciendo drásticamente la complejidad y los gastos generales. Muchas cargas de trabajo, tales como interfaces humanas naturales y el reconocimiento de patrones, se benefician de la ejecución en paralelo de la GPU y funcionan de manera mucho más eficiente cuando tanto la GPU como la CPU se usan conjuntamente. Estas capacidades son importantes para muchas aplicaciones, incluyendo el reconocimiento de voz, seguridad de datos, imágenes médicas, la secuenciación del genoma, la conducción autónoma, y las aplicaciones de supercomputación centradas principalmente en la investigación científica. Además de facilitar casos de uso de próxima generación, esta fusión práctica de los dos tipos de procesador puede resultar en una mejora dramática del rendimiento y eficiencia energética. Los nuevos chips de procesadores que emplean HSA están entrando ahora en el mercado, presagiando nuevas aplicaciones y capacidades.

El cambio de las cargas de trabajo informáticas también afecta al uso de energía de los procesadores. La mayoría de los ordenadores funcionan al máximo rendimiento sólo una pequeña fracción del tiempo, a menudo tan solo un uno porciento.

En consecuencia, la mayor parte de la informática ahora se caracteriza típicamente por el tiempo de inactividad- los periodos entre pulsaciones de teclas o fotogramas de un vídeo, o después de que una página web se cargue. Las tecnologías de eficiencia energética están optimizadas para reducir el consumo de energía durante el periodo de inactividad y también están optimizadas para casos de “uso típico” permitiendo una mayor eficiencia energética.

Por ejemplo, cuando hay un pico en la demanda informática, como en el rendering de video, los procesadores requieren más electricidad, que luego cae cuando se ha completado la tarea. Los cambios repentinos provocan fluctuaciones significativas en la fuente de alimentación del chip. Los diseñadores de microprocesadores normalmente suministran una cantidad extra de energía para asegurarse de que el procesador siempre tiene una cantidad suficiente para satisfacer el pico de la demanda. Pero esta práctica es costosa en términos de energía. Ajustar rápidamente el voltaje para satisfacer las cambiantes necesidades de las aplicaciones, representa una oportunidad para eliminar la energía desperdiciada. Los últimos procesadores de AMD incluyen estas capacidades y funciones de adaptación de voltaje tanto en la CPU como en la GPU, lo que ayuda a reducir la energía entre un 10 y 20%.

Más allá de la arquitectura y la eficiencia energética del silicio, las técnicas de administración de la energía pueden impulsar una mayor eficiencia energética. Un ejemplo es a través de la monitorización delicada y la gestión de la energía, la temperatura y la actividad a través de la APU. Esto permite que un procesador asigne dinámicamente la energía basándose en las necesidades de aplicación. A medida que aumenta el rendimiento, las tareas terminan antes y por lo tanto se puede pasar más tiempo en los modos de inactividad – un “círculo virtuoso” de mayor rendimiento y menos energía que mejora sinérgicamente la eficiencia.
Nuevos enfoques en la integración del formato están proporcionando una miniaturización y reducción significativa de la energía. AMD es la primera en la industria que ha anunciado planes para implementar la memoria HBM en las Unidades de Procesamiento Gráfico, y enfocarse en reducir significativamente el gasto energético. La memoria gráfica HBM es una pila vertical en 3D conectada a la GPU sobre el soporte de silicio (formato 2.5D). La conexión resultante de silicio a silicio consume 3 veces menos energía que la memoria GDDR5. [1]

En resumen, nadie puede decir exactamente cuándo o si la Ley de Moore parará; sin embargo, no hay duda de que los aumentos asociados a la eficiencia energética se han frenado sustancialmente. Al mismo tiempo, el consumo de energía incurrido por el uso creciente de la sociedad de dispositivos informáticos está aumentando. Esto requiere una ingeniería inteligente para superar los límites físicos de transistores cada vez más pequeños con el fin de seguir avanzando en las increíbles mejoras que la informática ha proporcionado a tantos. En el futuro, la mayor parte de los aumentos en la eficiencia energética se derivarán de la arquitectura, un nuevo diseño de circuitos y técnicas de administración de energía .

Por Mark Papermaster, vicepresidente sénior y director de Tecnología de AMD


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022