NVIDIA anuncia la GPU más potente de su historia

En teoría, sólo 20 de ellas podrían sostener todo el tráfico de Internet del mundo. Los primeros sistemas equipados con las nuevas GPU H100 Tensor Core de NVIDIA se lanzarán el próximo mes.

NVIDIA Corp. anunció ayer en su evento virtual GTC 2022 que los primeros productos y servicios basados en su unidad de procesamiento gráfico de última generación, la GPU NVIDIA H100 Tensor Core, se lanzarán el mes que viene.

La NVIDIA H100 Tensor Core es la GPU más potente que haya fabricado la compañía. Ya en plena producción, se basa en la nueva arquitectura Hopper y está dotada de más de 80.000 millones de transistores. También cuenta con nuevas características como un motor transformador y una interconexión NVLink más escalable, lo que le permite alimentar modelos de inteligencia artificial más grandes, sistemas de recomendación y otros tipos de cargas de trabajo.

Cuando el chip se anunció por primera vez en abril, NVIDIA dijo que es tan potente que sólo 20 de ellos podrían utilizarse teóricamente para sostener todo el tráfico de Internet del mundo. Eso hace que la H100 sea ideal para las aplicaciones de IA más avanzadas, incluida la realización de inferencias sobre los datos en tiempo real.

Las GPU H100 son las primeras que admiten PCIe Gen5 y también utilizan HBM3, lo que significa que tienen más de 3 terabytes de ancho de banda de memoria. Con todo, es el motor Transformer el que probablemente interesará a muchas empresas. Según NVIDIA, es capaz de acelerar los modelos de procesamiento del lenguaje natural basados en Transformer hasta seis veces más de lo que podía hacer la GPU A100 de la generación anterior.

Además, las GPU H100 incorporan una tecnología de GPU multiinstancia segura de segunda generación que permite particionar el chip en siete instancias más pequeñas y totalmente aisladas para manejar varias cargas de trabajo simultáneamente. Otras funciones son la compatibilidad con la computación confidencial, lo que significa la encriptación de los datos mientras se procesan, y las nuevas instrucciones DPX para impulsar la programación dinámica acelerada.

Es una técnica que se utiliza habitualmente en muchos algoritmos de optimización, procesamiento de datos y ómica. La GPU H100 puede hacerlo 40 veces más rápido que las unidades centrales de procesamiento más avanzadas, promete NVIDIA.

El fundador y CEO de NVIDIA, Jensen Huang, dijo en la GTC que ve a Hopper como “el nuevo motor de las fábricas de IA” que impulsará avances significativos en la IA basada en el lenguaje, la robótica, la sanidad y las ciencias de la vida. “El motor Transformer de Hopper aumenta el rendimiento hasta un orden de magnitud, poniendo la IA y la HPC a gran escala al alcance de empresas e investigadores”, dijo.

Todos los nuevos servidores de uso general equipados con el NVIDIA H100 se venderán con una licencia de cinco años para NVIDIA AI Enterprise. Se trata de un paquete de software que se utiliza para optimizar el desarrollo y la implantación de modelos de IA y proporciona acceso a marcos y herramientas de IA para la creación de chatbots de IA, ingenieros de recomendación, IA de visión artificial y mucho más.

NVIDIA dijo que las GPU H100 estarán ampliamente disponibles el próximo mes en los últimos servidores PowerEdge de Dell Technologies Inc., a través del servicio NVIDIA LaunchPad que proporciona laboratorios prácticos y gratuitos para que las empresas se inicien en el uso del hardware. Como alternativa, los clientes pueden solicitar los nuevos sistemas NVIDIA DGX H100, que vienen con ocho GPU H100 y proporcionan 32 petaflops de rendimiento con precisión FP8.

Cada sistema DGX cuenta con las pilas de software Base Command y AI Enterprise de NVIDIA. Permiten implementaciones que van desde un solo nodo hasta un NVIDIA DGX SuperPOD completo para cargas de trabajo de IA más avanzadas, como los modelos de lenguaje de gran tamaño.

Además, las GPU H100 estarán disponibles en una variedad de sistemas de servidores de terceros vendidos por empresas que incluyen Dell, Atos SE, Cisco Systems Inc, Fujitsu Ltd., Giga-Byte Technology Co. Ltd., Hewlett Packard Enterprise Co., Lenovo Ltd. y Super Micro Computer Inc. en las próximas semanas.

Algunas de las principales instituciones de educación superior e investigación del mundo también tendrán en sus manos la NVIDIA H100 para alimentar sus avanzados superordenadores. Entre ellas se encuentran el Centro de Supercomputación de Barcelona, el Laboratorio Nacional de Los Álamos, el Centro Nacional de Supercomputación de Suiza, el Centro de Computación Avanzada de Texas y la Universidad de Tsukuba.

No se quedarán atrás los gigantes de la computación en nube pública. Los servicios de Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure estarán entre los primeros en desplegar instancias basadas en el H100 a principios del año que viene, dijo NVIDIA.

El anuncio de Huangs demuestra el deseo de NVIDIA de convertirse en la plataforma para todas las operaciones empresariales de IA con su arquitectura Hopper. No sólo estará disponible en las principales plataformas en la nube, sino también en las plataformas locales. Esto ofrece a las empresas la opción de desplegar aplicaciones de nueva generación impulsadas por la IA prácticamente en cualquier lugar. Dada la potencia de los chips de NVIDIA, se trata de una oferta muy atractiva, ya que en la próxima década habrá mucha incertidumbre sobre dónde operar las cargas de trabajo empresariales.

Por último, NVIDIA señala que muchos de los principales marcos de trabajo de aprendizaje profundo y modelos de IA del mundo están siendo optimizados para las GPU H100, entre ellos el propio marco de trabajo NeMo Megatron de la compañía, además de DeepSpeed de Microsoft Corp. y JAX, PyTorch, TensorFlow y XLA de Google LLC.

Ilustración: NVIDIA


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022