Las GPU de NVIDIA mantienen el liderazgo en los últimos resultados de inferencia de MLPerf

NVIDIA mantiene la ventaja en el rendimiento de la inferencia de la IA con sus primeros resultados en servidores basados en Arm.

NVIDIA volvió a dominar la última ronda de resultados de las pruebas de inferencia de MLPerf (v 1.1) cuando éstas se dieron a conocer el 23 de septiembre, copando los primeros puestos en las categorías de centro de datos cerrado y borde.

Las GPU de NVIDIA han dominado los benchmarks de MLPerf (entrenamiento e inferencia) desde el comienzo en 2018. “Ejecutamos cada carga de trabajo, cada escenario, cada caso de uso tanto para el centro de datos como para el borde en MLPerf. Y, de hecho, somos la única empresa que lo hace”, dijo David Salvator, gerente senior de productos, inferencia y nube, NVIDIA, en una reunión previa con los medios de comunicación tecnológicos.

Las últimas pruebas comparativas de MLPerf demuestran que NVIDIA ha ampliado sus altas cotas de rendimiento y eficiencia energética para la inferencia de IA tanto a Arm como a los ordenadores x86.

Es la tercera vez consecutiva que NVIDIA establece récords de rendimiento y eficiencia energética en las pruebas de inferencia de MLCommons, un grupo de evaluación comparativa del sector creado en mayo de 2018.

Asimismo, es la primera vez que las pruebas de la categoría de centro de datos se ejecutan en un sistema basado en Arm, lo que ofrece a los usuarios más opciones para implementar la IA, la tecnología más transformadora de nuestro tiempo.

Los equipos dotados de la plataforma de IA de NVIDIA superaron las siete pruebas de rendimiento de inferencia en la última ronda con sistemas de NVIDIA y nueve de nuestros socios del ecosistema, entre ellos Alibaba, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, Nettrix y Supermicro.

Además, NVIDIA es la única compañía que ha comunicado los resultados de todas las pruebas MLPerf en esta y en todas las rondas realizadas hasta la fecha.

La inferencia es lo que ocurre cuando una computadora ejecuta un software de IA para reconocer un objeto o hacer una predicción. Es un proceso que utiliza un modelo de aprendizaje profundo para filtrar datos, encontrando resultados que ningún humano podría captar.

Los puntos de referencia de inferencia de MLPerf se basan en las cargas de trabajo y los escenarios de IA más populares de la actualidad, y abarcan la visión artificial, las imágenes médicas, el procesamiento del lenguaje natural, los sistemas de recomendación y el aprendizaje por refuerzo, entre otros.

Así, sean cuales sean las aplicaciones de IA que implementen, los usuarios pueden establecer sus propios récords con NVIDIA.

Por qué es importante el rendimiento

Los modelos y conjuntos de datos de IA siguen creciendo a medida que los casos de uso de la IA se expanden desde el centro de datos hasta el borde y más allá. Por ello, los usuarios necesitan un rendimiento que sea fiable y flexible de implementar.

MLPerf ofrece a los usuarios la confianza necesaria para tomar decisiones de compra informadas. Está respaldado por docenas de líderes del sector, como Alibaba, Arm, Baidu, Google, Intel y NVIDIA, por lo que las pruebas son transparentes y objetivas.

Uso de Arm para la IA empresarial

La arquitectura Arm se está abriendo paso en los centros de datos de todo el mundo, en parte gracias a su eficiencia energética, el aumento del rendimiento y la expansión del ecosistema de software.

Las últimas pruebas de rendimiento muestran que, como plataforma acelerada por la GPU, los servidores basados en Arm que utilizan CPU Ampere Altra ofrecen un rendimiento casi igual al de los servidores basados en x86 de configuración similar para trabajos de inferencia de IA. De hecho, en una de las pruebas, el servidor basado en Arm superó a un sistema x86 similar.

NVIDIA tiene una larga tradición de apoyo a todas las arquitecturas de CPU, por lo que nos enorgullece ver que Arm demuestra su destreza en IA en una prueba de rendimiento revisada por la industria.

“Arm, como miembro fundador de MLCommons, está comprometido con el proceso de creación de estándares y pruebas de referencia para abordar mejor los retos e inspirar la innovación en la industria de la computación acelerada”, afirma David Lecomber, director senior de HPC y herramientas en Arm.

“Los últimos resultados de las inferencias demuestran que los sistemas basados en Arm y dotados de CPUs y GPUs NVIDIA están preparados para abordar una amplia gama de cargas de trabajo de IA en el centro de datos”, añade.

Los socios demuestran su poder de IA

La tecnología de IA de NVIDIA está respaldada por un amplio y creciente ecosistema. Siete fabricantes de equipos originales presentaron un total de 22 plataformas aceleradas por la GPU en las últimas pruebas de rendimiento.

La mayoría de estos modelos de servidores cuentan con la certificación NVIDIA, validada para ejecutar una amplia gama de cargas de trabajo aceleradas. Y muchos de ellos son compatibles con NVIDIA AI Enterprise, el software lanzado oficialmente el mes pasado.

Entre los socios que participaron en esta ronda se encuentran Dell Technologies, Fujitsu, Hewlett Packard Enterprise, Inspur, Lenovo, Nettrix y Supermicro, así como el proveedor de servicios en la nube Alibaba.

El poder del software

“Un ingrediente clave del éxito de la IA de NVIDIA en todos los casos de uso es nuestra pila completa de software”, escribe NVIDIA, agregando que en el caso de la inferencia, esto incluye modelos de IA preentrenados para una amplia variedad de casos de uso. El kit de herramientas NVIDIA TAO personaliza esos modelos para aplicaciones específicas utilizando el aprendizaje por transferencia.

El software NVIDIA TensorRT optimiza los modelos de IA para que aprovechen mejor la memoria y se ejecuten más rápidamente. “Lo utilizamos habitualmente para las pruebas de MLPerf y está disponible para sistemas x86 y Arm”, señala NVIDIA. “También hemos empleado nuestro software NVIDIA Triton Inference Server y la función de GPU multiinstancia (MIG) en estas pruebas. Ofrecen a todos los desarrolladores el tipo de rendimiento que suele requerir programadores expertos”.

Gracias a las continuas mejoras introducidas en esta pila de software, NVIDIA ha conseguido mejoras de hasta un 20 por ciento en el rendimiento y un 15 por ciento en la eficiencia energética con respecto a las pruebas de inferencia MLPerf anteriores, realizadas hace sólo cuatro meses.

Todo el software utilizado en las últimas pruebas está disponible en el repositorio de MLPerf, por lo que todos los interesados pueden reproducir los resultados de las pruebas.


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022