AWS lanza nuevas instancias GPU para aprendizaje automático y supercomputación

Las nuevas instancias, denominadas P4, se ejecutarán con procesadores Intel Cascade Lake y ocho GPUs Nvidia A100 Tensor Core.

Amazon Web Services (AWS) anuncia sus últimas instancias de nube equipadas con GPU. Las P4 se ejecutarán con procesadores Intel Cascade Lake y ocho GPUs Nvidia A100 Tensor Core.

AWS afirma que tendrán más del doble de rendimiento en labores de aprendizaje profundo que la generación anterior. Su costo de entrenamiento, en tanto, será 60 inferior.

Por el momento, AWS ofrece un solo tamaño – la instancia p4d.12xlarge – que puede ser lanzada en las regiones Este (N. Virginia) y Oeste (Oregon) de los EE.UU. Cuenta con 320 GB de memoria de GPU de alta banda ancha, así como 400 Gbps de red, 96 núcleos de CPU, 1,1 TB de memoria del sistema y 8 TB de almacenamiento en SSD. La tarifa bajo demanda será de 32,77 dólares por hora, bajando a aproximadamente 20 dólares por hora para las instancias reservadas de un año, y 11,57 dólares para las instancias reservadas por tres años.

AWS también dijo que los clientes pueden combinar más de 4.000 GPU y formar un EC2 UltraCluster, que es básicamente una supercomputadora.

Las instancias P4 pueden ser contratadas en formato bajo demanda, plan de ahorro, instancia reservada y spot. El soporte para el uso de instancias P4 en servicios AWS administrados como Amazon SageMaker y Amazon Elastic Kubernetes Service estará disponible a finales de este año, informa AWS.




Contacto | Diario TI es una publicación de MPA Publishing International Ltd.