NVIDIA duplica la memoria de su GPU A100 para cargas de trabajo de IA

NVIDIA hoy ha actualizado la que ya es la unidad de procesamiento gr谩fico m谩s r谩pida del mundo, a帽adiendo el doble de memoria que antes.

La nueva GPU NVIDIA A100 de 80 gigabytes viene con el doble de memoria que su predecesora, la GPU est谩ndar A100 de 40 GB que se lanz贸 a principios de este a帽o, lo que le permite ofrecer m谩s de 2 terabytes por segundo de ancho de banda de memoria. El resultado es que la GPU A100 puede procesar el doble de datos en la misma cantidad de tiempo, acelerando las cargas de trabajo de la IA y aceptando datasets mucho m谩s voluminosos, dijo Nvidia.

鈥淟ograr resultados de vanguardia en la investigaci贸n de HPC e IA requiere el desarrollo de modelos m谩s grandes; sin embargo, estos exigen m谩s capacidad de memoria y ancho de banda que nunca鈥, dijo Bryan Catanzaro, vicepresidente de investigaci贸n de deep learning aplicado de NVIDIA. 鈥淟a GPU A100 de 80 GB proporciona el doble de memoria que su predecesora, que se lanz贸 hace solo seis meses, y rompe la barrera de los 2 TB por segundo, lo que permite a los investigadores abordar los desaf铆os cient铆ficos y de big data m谩s importantes del mundo鈥.

La GPU NVIDIA A100 de 80 GB est谩 disponible en los sistemas NVIDIA DGXTM A100 y NVIDIA DGX StationTM A100, que tambi茅n se anunciaron hoy y se esperan que se env铆en este trimestre. 

Se espera que los principales proveedores de sistemas, como Atos, Dell, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, Quanta y Supermicro, comiencen a ofrecer sistemas desarrollados con las placas base integradas HGX A100 con configuraciones de cuatro (4) u ocho (8) GPUs A100 de 80 GB en la primera mitad del 2021. 

Impulsar cargas de trabajo hambrientas de datos 
La GPU A100 de 80 GB se basa en las diversas capacidades de la A100 de 40 GB y es ideal para realizar una amplia gama de aplicaciones con enormes requisitos de memoria de datos. 

Para el entrenamiento de IA, los modelos de sistemas de recomendaci贸n como DLRM tienen enormes tablas que representan miles de millones de usuarios y cientos de millones de productos. El A100 de 80 GB ofrece una aceleraci贸n de hasta 3 veces, por lo que las empresas pueden reentrenar r谩pidamente estos modelos para brindar recomendaciones altamente precisas.

El A100 de 80 GB tambi茅n permite el entrenamiento de los modelos m谩s grandes con m谩s par谩metros que se ajustan a un solo servidor con HGX, como GPT-2, un modelo de procesamiento de idiomas naturales con capacidad de texto generativo sobrehumano. Esto elimina la necesidad de datos o modelos de arquitecturas paralelas que pueden llevar mucho tiempo implementar y ralentizar su ejecuci贸n en varios nodos. 

Gracias a su tecnolog铆a de GPU de instancias m煤ltiples (MIG), A100 se puede particionar en hasta siete instancias de GPU, cada una con 10 GB de memoria. Esto proporciona un aislamiento de hardware seguro y maximiza la utilizaci贸n de la GPU para una variedad de cargas de trabajo m谩s peque帽as. Para la inferencia de IA de modelos de reconocimiento autom谩tico de voz como RNN-T, una sola instancia de MIG A100 de 80 GB puede dar servicio a lotes mucho m谩s grandes, lo que ofrece un rendimiento de inferencia 1.25 veces mayor en producci贸n.

En una evaluaci贸n del an谩lisis de big data para la industria del comercio minorista, en el rango de tama帽o de terabytes, la A100 de 80 GB aumenta el rendimiento hasta 2 veces, lo que la convierte en una plataforma ideal para brindar informaci贸n r谩pida sobre los conjuntos de datos m谩s grandes. Las empresas pueden tomar decisiones clave en tiempo real, ya que los datos se actualizan de forma din谩mica. 

Para aplicaciones cient铆ficas, como la previsi贸n meteorol贸gica y la qu铆mica cu谩ntica, la A100 de 80 GB puede ofrecer una enorme aceleraci贸n. Quantum Espresso, una simulaci贸n de materiales logr贸 un rendimiento cerca de 2 veces con un solo nodo de A100 de 80 GB.

鈥淟a capacidad y el ancho de banda de memoria amplios y r谩pidos son vitales para lograr un alto rendimiento en aplicaciones de supercomputaci贸n鈥, dijo Satoshi Matsuoka, director del Centro RIKEN de Ciencias Computacionales. “La NVIDIA A100 con 80 GB de memoria de GPU HBM2e, que proporciona el ancho de banda de 2 TB por segundo m谩s r谩pido del mundo, ayudar谩 a ofrecer un gran impulso en el rendimiento de las aplicaciones”.

Caracter铆sticas clave de A100 de 80 GB
La A100 de 80 GB incluye las diversas e innovadoras caracter铆sticas de la arquitectura NVIDIA Ampere:

  • Tensor Cores de 3.陋 generaci贸n: Proporciona un rendimiento de AI hasta 20 veces superior, en comparaci贸n con la generaci贸n anterior de Volta, gracias a un nuevo formato TF32, 2.5 veces superior en FP64 para HPC y 20 veces superior en INT8 para la inferencia de AI. Tambi茅n admite el formato de datos BF16.
  • Memoria de GPU HBM2e m谩s grande y r谩pida: Duplica la capacidad de memoria y es el primero dispositivo de la industria en ofrecer m谩s de 2 TB por segundo de ancho de banda de memoria.
  • Tecnolog铆a MIG: Duplica la memoria por instancia aislada, para proporcionar hasta siete MIG con 10 GB cada uno.
  • Baja densidad estructural: Ofrece hasta el doble de aceleraci贸n en las inferencias de modelos con baja densidad.
  • NVLink y NVSwitch de tercera generaci贸n: Proporciona el doble de ancho de banda de GPU a GPU que la tecnolog铆a de interconexi贸n de la generaci贸n anterior, lo que acelera las transferencias de datos a la GPU para cargas de trabajo con uso intensivo de datos a 600 gigabytes por segundo.

Plataforma de supercomputo NVIDIA HGX AI 
La GPU A100 de 80 GB es un elemento clave de la plataforma de supercomputaci贸n NVIDIA HGX AI, que re煤ne toda la potencia de las GPUs de NVIDIA, NVIDIA NVLink庐, las redes NVIDIA InfiniBand y una pila de software NVIDIA de IA y HPC totalmente optimizada para proporcionar el mayor rendimiento de las aplicaciones. Permite a los investigadores y cient铆ficos combinar HPC, an谩lisis de datos y m茅todos de computaci贸n de deep learning para avanzar en el progreso cient铆fico.


驴Desea suscribirse a nuestro newsletter?

Contacto | Diario TI es una publicaci贸n de MPA Publishing International Ltd.