Las nuevas instancias EC2 C7g se dirigen a cargas de trabajo de cálculo intensivo, como herramientas de análisis y software de modelado científico. La serie C7g se basa en el chip AWS Graviton3, un procesador diseñado internamente por la compañía.
Asimismo, ha anunciado sus instancias Amazon EC2 Trn1 para el entrenamiento de modelos de IA, que se ejecutan en un chip igualmente hecho a medida llamado AWS Trainium.
Las nuevas instancias debutaron esta mañana en el evento anual AWS re:Invent de la empresa.
AWS ha estado invirtiendo en el desarrollo de semiconductores propios en los últimos años para ofrecer más opciones a sus clientes. AWS también se abastece de chips de múltiples proveedores externos. Como resultado, las organizaciones que utilizan la nube de la unidad de Amazon tienen hoy acceso a instancias impulsadas por chips de Intel, AMD, NVIDIA y también los suyos propios.
Según la compañía, las organizaciones que planean utilizar instancias C7g para cargas de trabajo de aprendizaje automático pueden esperar una mejora en el rendimiento de la IA de hasta tres veces. El salto de velocidad se debe en parte a la compatibilidad del procesador con bfloat16, un formato de datos especializado.
Para las tareas criptográficas, Graviton3 ofrece hasta el doble de rendimiento que su predecesor Graviton2. AWS recuerda que cifrar y descifrar datos puede requerir una cantidad significativa de recursos de infraestructura porque el proceso implica operaciones matemáticas especializadas. Cuanto más rápido pueda realizar un procesador los cálculos criptográficos, más rápido funcionarán las aplicaciones empresariales.
El chip también introduce una función denominada autenticación por puntero para reducir el riesgo de ciberataques. Algunos tipos de malware intentan llevar a cabo ciberataques sobrescribiendo partes de la memoria de una instancia en la nube con código malicioso. La tecnología de autenticación de punteros de AWS puede detectar los intentos maliciosos de sobrescribir la memoria y bloquearlos.
Las instancias C7g estarán disponibles en múltiples configuraciones, incluidas las versiones bare-metal. Según AWS, la serie es la primera del sector de la nube que incorpora memoria DDR5, el tipo de memoria más sofisticado del mercado actual. La memoria DDR5 ofrece un 50% más de ancho de banda que las unidades DDR4 utilizadas en la actual generación de instancias EC2, dice AWS.
Entrenamiento de IA
Las instancias de la serie Trn1 están optimizadas para la tarea de entrenar modelos de inteligencia artificial. La serie se ejecuta en un chip personalizado llamado Trainium que los ingenieros de AWS han desarrollado específicamente para casos de uso de entrenamiento de IA.
Una sola instancia Trn1 puede aprovisionarse con hasta 16 chips Trainium. Las empresas que necesiten un rendimiento adicional tienen la opción de desplegar varias instancias en un clúster. Según AWS, las organizaciones pueden aprovisionar clústeres Trn1 con hasta miles de chips Trainium y conectarlos utilizando “redes sin bloqueo a escala petabit”.
Cada instancia cuenta con un rendimiento de red de hasta 800 gigabits por segundo, el doble que las instancias basadas en GPU de AWS. La gran cantidad de rendimiento permite la rápida transferencia de datos entre las diferentes partes del entorno de la nube de una empresa. Según AWS, los chips Trainium de la serie Trn1, su gran ancho de banda y otras características le permiten ofrecer el “mejor rendimiento en precio para el entrenamiento de modelos de aprendizaje profundo” en la nube.
Tanto la serie Trn1 como las instancias C7g impulsadas por Graviton3 están actualmente en fase de pre-lanzamiento.
Ilustración: captura, sitio de AWS re:invent