NVIDIA bate r茅cords de rendimiento en IA

Alcanza inferencia de IA hasta 237 veces m谩s veloz que la obtenida con CPU. Un solo sistema DGX A100鈩 puede proporcionar el mismo rendimiento que 1.000 servidores de CPU de doble socket.

NVIDIA ha anunciado hoy que su plataforma de computaci贸n de IA ha vuelto a batir r茅cords de rendimiento en la 煤ltima ronda de MLPerf, ampliando su liderazgo en el 煤nico est谩ndar de comparaci贸n independiente de la industria, que mide el rendimiento de la IA en hardware, software y servicios.

NVIDIA gan贸 todas las pruebas en las seis 谩reas de aplicaci贸n para centros de datos y sistemas de computaci贸n en el borde, comprendidas en la segunda versi贸n de MLPerf Inference. Aparte de incluir las dos pruebas originales sobre visi贸n artificial, la comparativa se ha expandido para cubrir las cuatro 谩reas de mayor crecimiento en IA: sistemas de recomendaci贸n, comprensi贸n del lenguaje natural, reconocimiento del habla e im谩genes m茅dicas.

Organizaciones de una amplia gama de industrias ya est谩n aprovechando el excepcional rendimiento inferencial de la GPU NVIDIA庐 A100 Tensor Core para llevar la IA desde sus grupos de investigaci贸n a las operaciones diarias. Instituciones financieras est谩n usando la IA conversacional para responder m谩s r谩pidamente las preguntas de los clientes; minoristas est谩n usando la IA para mantener sus estanter铆as abastecidas; y proveedores de atenci贸n sanitaria est谩n usando la IA para analizar millones de im谩genes m茅dicas para identificar con mayor precisi贸n las enfermedades y ayudar a salvar vidas.

“Nos encontramos en un punto de inflexi贸n ya que todas las industrias buscan mejores formas de aplicar la IA para ofrecer nuevos servicios y hacer crecer su negocio”, dijo Ian Buck, vicepresidente y gerente general de computaci贸n acelerada en NVIDIA.”El trabajo que hemos hecho para lograr estos resultados en el MLPerf brinda a las empresas un nuevo nivel de rendimiento de la IA para mejorar nuestra vida cotidiana”.

Los 煤ltimos resultados de MLPerf surgen en momentos en que la presencia de NVIDIA en el 谩mbito de la inferencia en IA ha crecido radicalmente. Hace cinco a帽os, s贸lo un reducido grupo de las principales empresas de alta tecnolog铆a utilizaban las GPU para inferencia. Ahora, con la plataforma IA de NVIDIA disponible a trav茅s de todos los principales proveedores de infraestructuras de nubes y centros de datos, empresas que representan una amplia gama de sectores est谩n utilizando la plataforma para mejorar sus operaciones comerciales y ofrecer servicios adicionales. 

Asimismo, por primera vez, las GPU de NVIDIA ofrecen m谩s capacidad de inferencia de IA en la nube p煤blica que las CPU. La capacidad total de c贸mputo en inferencia de IA en la nube se ha multiplicado aproximadamente por 10 cada dos a帽os para las GPU de NVIDIA.

NVIDIA lleva la inferencia de la IA a otro nivel

NVIDIA y sus socios enviaron sus resultados de MLPerf 0.7 utilizando la plataforma de aceleraci贸n de NVIDIA, que incluye las GPU NVIDIA para centros de datos, los aceleradores para el borde y el software optimizado de NVIDIA. 

NVIDIA A100, presentada a principios de este a帽o y dotada de Tensor Cores y la tecnolog铆a de GPU multi-instancia, aument贸 su ventaja en la prueba ResNet-50, superando en 30 veces a las CPU, frente a las 6 veces de la 煤ltima ronda. Adem谩s, la A100 super贸 a las CPU m谩s recientes con un desempe帽o 237 veces mayor en la prueba de recomendaci贸n para la inferencia en centros de datos, incorporada recientemente, seg煤n la versi贸n 0.7 de MLPerf Inference. 

Esto significa que un solo sistema NVIDIA DGX A100鈩 puede proporcionar el mismo rendimiento que aproximadamente 1.000 servidores de CPU de doble socket, ofreciendo a los clientes una extrema eficiencia de costes al llevar sus modelos de recomendaci贸n de IA desde el 谩mbito de la investigaci贸n a la producci贸n.

Los an谩lisis tambi茅n muestran que la GPU NVIDIA T4 Tensor Core sigue siendo una s贸lida plataforma de inferencia para las empresas de punta, los servidores edge y las instancias cloud rentables. Las GPU T4 de NVIDIA tienen un desempe帽o 28 veces superior a las CPU en las mismas pruebas. De igual modo, el Jetson AGX Xavier de NVIDIA es el l铆der de rendimiento entre los dispositivos edge basados en SoC.

Para conseguir estos resultados se necesitaba una pila de software altamente optimizada que incluyera el optimizador de inferencia TensorRT鈩 de NVIDIAy el software de servicio de inferencia Triton de NVIDIA, ambos disponibles en NGC, el cat谩logo de software de NVIDIA.

Adem谩s de las muestras aportadas por NVIDIA, 11 partners de NVIDIA enviaron un total de 1.029 resultados utilizando GPU de NVIDIA, lo que representa m谩s del 85 por ciento del total de colaboraciones en las categor铆as de centros de datos y borde.

Acerca de NVIDIA

驴Desea suscribirse a nuestro newsletter?

Contacto | Diario TI es una publicaci贸n de MPA Publishing International Ltd.