NVIDIA presenta centro de datos port谩til: DGX Station A100

Es el primer servidor para grupos de trabajo de IA integrado a petaescala del mundo, con cuatro GPUs NVIDIA A100 y hasta 320 GB de memoria.

 El d铆a de hoy, NVIDIA present贸 NVIDIA DGX Station鈩 A100, el primer servidor para grupos de trabajo a petaescala del mundo. DGX Station A100, la segunda generaci贸n del innovador sistema de inteligencia artificial, acelera las exigentes cargas de trabajo de machine learning y ciencia de datos para los equipos que trabajan en oficinas corporativas, instalaciones de investigaci贸n, laboratorios u oficinas desde casa en todas partes.

DGX Station A100 cuenta con 2.5 petaflops de rendimiento de IA y es el 煤nico servidor de grupos de trabajo con cuatro de las GPUs NVIDIA庐 A100 Tensor Core m谩s recientes totalmente interconectadas con NVIDIA NVLink庐, lo que proporciona hasta 320 GB de memoria de GPU para acelerar los avances en la IA y la ciencia de datos empresariales. 

DGX Station A100 es tambi茅n el 煤nico servidor para grupos de trabajo compatible con la tecnolog铆a de m煤ltiples instancias de GPU de NVIDIA (MIG). Con MIG, una sola DGX Station A100 proporciona hasta 28 instancias de GPU separadas para ejecutar trabajos en paralelo y admitir varios usuarios sin afectar el rendimiento del sistema. 

鈥淒GX Station A100 saca la IA del data center con un sistema de clase de servidor que se puede conectar en cualquier lugar鈥, dijo Charlie Boyle, vicepresidente y gerente general de sistemas DGX de NVIDIA. 鈥淟os equipos de investigadores de ciencia de datos e inteligencia artificial pueden acelerar su trabajo utilizando la misma pila de software que los sistemas NVIDIA DGX A100, lo que les permite escalar f谩cilmente desde el desarrollo hasta la implementaci贸n鈥.

DGX Station Potencia la Innovaci贸n de IA
Organizaciones de todo el mundo han adoptado DGX Station para impulsar la inteligencia artificial y la ciencia de datos en industrias como la educaci贸n, los servicios financieros, el gobierno, la atenci贸n m茅dica y el comercio minorista. Estos l铆deres de IA incluyen:

  • BMW Group Production est谩 usando NVIDIA DGX Stations para explorar los resultados m谩s r谩pido, a medida que desarrolla e implementa modelos de IA que mejoran las operaciones.
  • DFKI, el Centro Alem谩n de Investigaci贸n de Inteligencia Artificial, est谩 utilizando DGX Station para construir modelos que abordan desaf铆os cr铆ticos para la sociedad y la industria, incluidos los sistemas de visi贸n de computaci贸n que ayudan a los servicios de emergencia a responder r谩pidamente a desastres naturales.
  • Lockheed Martin est谩 utilizando DGX Station para desarrollar modelos de inteligencia artificial que utilizan datos de sensores y registros de servicios para predecir la necesidad de mantenimiento y as铆 mejorar el tiempo de actividad de manufactura, aumentar la seguridad de los trabajadores y reducir los costos operativos.
  • Pacific Northwest National Laboratory est谩 usando NVIDIA DGX Stations para llevar a cabo investigaciones con fondos federales que fomentan la seguridad nacional. PNNL se enfoca en la innovaci贸n tecnol贸gica de resiliencia energ茅tica y seguridad nacional. Es un centro de HPC l铆der en EE. UU. para el descubrimiento cient铆fico, la resiliencia energ茅tica, la qu铆mica, las ciencias de la Tierra y el an谩lisis de datos.
  • NTT Docomo, el operador m贸vil l铆der de Jap贸n que cuenta con m谩s de 79 millones de suscriptores, utiliza DGX Station para desarrollar servicios innovadores basados en inteligencia artificial, como su soluci贸n de reconocimiento de im谩genes. 

Una Supercomputadora de IA en Todas Partes
Si bien DGX Station A100 no requiere alimentaci贸n ni enfriamiento de grado de data center, es un sistema de clase de servidor que incluye las mismas capacidades de administraci贸n remota que los sistemas de data centers NVIDIA DGX A100. Los administradores de sistema pueden realizar f谩cilmente cualquier tarea de gesti贸n a trav茅s de una conexi贸n remota cuando los cient铆ficos de datos y los investigadores est谩n trabajando en casa o en laboratorios.

DGX Station A100 est谩 disponible con cuatro GPUs NVIDIA A100 Tensor Core de 80 GB o 40 GB. Esto brinda opciones para que los equipos de investigaci贸n de ciencia de datos e inteligencia artificial seleccionen un sistema de acuerdo con sus cargas de trabajo y presupuestos 煤nicos. 

Para impulsar modelos de IA conversacionales complejas, como la inferencia de BERT Large, DGX Station A100 es m谩s de 4 veces m谩s r谩pido que la generaci贸n anterior de DGX Station. Ofrece un aumento de rendimiento de casi 3 veces para el entrenamiento de IA de BERT Large.

Duplicar la Memoria de la GPU para AI, HPC
Para las cargas de trabajo avanzadas de data centers, los sistemas DGX A100 estar谩n disponibles con las nuevas GPU NVIDIA A100 de 80 GB. Esto duplica la capacidad de memoria de la GPU a 640 GB por sistema, a fin de permitir que los equipos de inteligencia artificial aumenten la precisi贸n con conjuntos de datos y modelos m谩s grandes. 

Los nuevos sistemas NVIDIA DGX A100 de 640 GB tambi茅n se pueden integrar en la soluci贸n NVIDIA DGX SuperPODTM para empresas, lo que permitir谩 a las organizaciones desarrollar, entrenar e implementar enormes modelos de IA en supercomputadoras de IA listas para usar, disponibles en unidades de 20 sistemas DGX A100. 

Las primeras entregas de los sistemas NVIDIA DGX SuperPOD con DGX A100 de 640 GB incluir谩n la supercomputadora Cambridge-1, que se est谩 instalando en el Reino Unido para potenciar la investigaci贸n de la salud, y la nueva supercomputadora de IA HiPerGator de la Universidad de Florida , que impulsar谩 el descubrimiento infundido de IA en todo el estado. 

Disponibilidad
Los sistemas NVIDIA DGX Station A100 y NVIDIA DGX A100 de 640 GB estar谩n disponibles este trimestre a trav茅s de la Red de socios de NVIDIA de todo el mundo. Hay una opci贸n de actualizaci贸n disponible para los clientes de NVIDIA DGX A100 de 320 GB.


驴Desea suscribirse a nuestro newsletter?

Contacto | Diario TI es una publicaci贸n de MPA Publishing International Ltd.