Intel Corp. ha detallado hoy su desarrollo de un nuevo tipo de chip, la unidad de procesamiento de infraestructura, cuyo objetivo es aumentar la eficiencia de los centros de datos de los proveedores que operan en la nube, descargando las tareas informáticas de las unidades centrales de procesamiento primarias de sus servidores.
La ejecución de una aplicación requiere que un servidor no sólo realice los cálculos de la propia aplicación, sino también una serie de funciones auxiliares. El servidor debe coordinar la red a través de la cual la aplicación intercambia datos con otras cargas de trabajo, gestionar las peticiones al hardware de almacenamiento donde se guardan los registros de la empresa y realizar una serie de otras tareas de apoyo. Estas tareas de apoyo suelen consumir una parte importante de la capacidad total de procesamiento de un equipo.
Intel afirma que sus unidades de procesamiento de infraestructura, o IPU, pueden liberar la capacidad de procesamiento que se gasta en esos cálculos auxiliares.
Según la empresa, varios proveedores de la nube ya han desplegado esta tecnología.
Intel proporciona las IPU en forma de dispositivo de red que las empresas pueden conectar a sus servidores. Una vez conectados, los chips se encargan de tareas auxiliares, como la gestión de la infraestructura de almacenamiento y la red, de la unidad central de procesamiento de un servidor. El resultado es que se dispone de más ciclos de reloj de la CPU para las aplicaciones.
La IPU conectada a un servidor puede realizar las tareas con más eficacia que una CPU porque tiene circuitos especializados optimizados específicamente para operaciones infraestructurales de bajo nivel. Según Intel, sus IPU pueden asumir múltiples funciones de infraestructura, como la virtualización del almacenamiento, la virtualización de la red y la seguridad. Tanto el hardware como el software de los chips son programables, lo que permite a los clientes de Intel expertos en tecnología de hiperescala configurarlos según sus necesidades.
La cantidad de potencia de procesamiento que se puede liberar descargando los cálculos auxiliares de la CPU principal del servidor es significativa. Cuando se ejecuta una aplicación de contenedor de software, por ejemplo, la tarea de compartir los datos entre los subcomponentes de la aplicación puede por sí misma ocupar una gran parte de la capacidad de procesamiento disponible. Intel ha citado hoy una investigación de Google LLC y Facebook Inc. en la que se constata que esta sobrecarga de comunicaciones utiliza entre el 22% y el 80% de los ciclos de CPU disponibles.
Las nuevas IPU se describen como una evolución de la actual línea de dispositivos de red SmartNIC de Intel, que ofrece características similares. “El SmartNIC nos permite liberar núcleos de procesamiento, escalar a anchos de banda e IOPS de almacenamiento mucho mayores, añadir nuevas capacidades después de la implantación y proporcionar un rendimiento predecible a nuestros clientes de la nube”, dijo Andrew Putnam, director de ingeniería de hardware de Microsoft Corp, empresa que también utiliza las nuevas IPU de Intel.
Intel afirma que los proveedores de la nube pueden aplicar las ventajas de eficiencia que ofrecen los chips de varias maneras. “Los operadores de la nube pueden descargar las tareas de infraestructura a la IPU”, explicó Guido Appenzeller, director de tecnología del Grupo de Plataformas de Datos de Intel. “Gracias a los aceleradores de la IPU, ésta puede procesarlas de forma muy eficiente. Esto optimiza el rendimiento y el operador de la nube puede ahora alquilar el 100% de la CPU a su cliente, lo que también ayuda a maximizar los ingresos.”
Otra ventaja es la posibilidad de ofrecer más opciones de personalización de la infraestructura a los clientes del proveedor de la nube. Al trasladar el software sensible que controla tareas como la gestión de la red y el almacenamiento de la CPU interna de un servidor a la IPU, un proveedor de nube puede permitirse dar a los clientes un mayor acceso a la CPU sin añadir riesgos adicionales. El mayor acceso al hardware de la nube, a su vez, podría permitir a las empresas personalizar sus entornos de infraestructura como servicio en mayor medida de lo que es posible actualmente.
“La IPU permite la separación de funciones para que el cliente pueda controlar totalmente la CPU”, dijo Appenzeller. “Así que si soy un cliente, puedo llevar mi propio hipervisor, pero el proveedor de la nube sigue teniendo el control total de la infraestructura y puede hacer un sandbox de funciones como la red, la seguridad y el almacenamiento. Es un gran paso adelante, algo así como tener un hipervisor en el hardware que proporciona la infraestructura para las cargas de trabajo de sus clientes.”
Las primeras IPU de Intel, que han sido implementadas por Microsoft y otros operadores de la nube, se basan en matrices de puertos programables en campo. Las FPGA son chips parcialmente personalizables que los ingenieros de semiconductores pueden optimizar a nivel de hardware para un conjunto específico de tareas. Esto permite que los chips ejecuten esas tareas de forma más eficiente que los procesadores de propósito general que no cuentan con esas optimizaciones.
Intel también está probando un nuevo diseño de IPU que utiliza un circuito integrado de aplicación específica en lugar de una FPGA. Los ASIC son chips creados desde cero para tareas específicas, lo que en teoría permite optimizar los diseños en mayor medida que con los FPGA.
“La UIP es una nueva categoría de tecnologías y es uno de los pilares estratégicos de nuestra estrategia en la nube”, dijo Appenzeller. “Amplía nuestras capacidades de SmartNIC y está diseñada para abordar la complejidad y las ineficiencias del centro de datos moderno”.