En Computex 2024, AMD (NASDAQ: AMD) dio a conocer una hoja de ruta ampliada y de varios años para el acelerador AMD Instinct que aportará una cadencia anual de capacidades de liderazgo en rendimiento y memoria de IA en cada generación.
La hoja de ruta actualizada comienza con el nuevo acelerador AMD Instinct MI325X, que estará disponible en el cuarto trimestre de 2024. Después de eso, se espera que la Serie AMD Instinct MI350, impulsada por la nueva arquitectura AMD CDNA™ 4, esté disponible en 2025, lo que representa un aumento de hasta 35 veces en el rendimiento de inferencia de IA en comparación con la Serie AMD Instinct MI300 con arquitectura AMD CDNA 3. En 2026, se espera que llegue la serie AMD Instinct MI400 que se basa en la arquitectura AMD CDNA «Next».
«Los aceleradores AMD Instinct MI300X continúan su fuerte adopción por parte de numerosos socios y clientes, incluidos Microsoft Azure, Meta, Dell Technologies, HPE, Lenovo y otros, un resultado directo del rendimiento excepcional y la propuesta de valor del acelerador AMD Instinct MI300X«, dijo Brad McCredie, vicepresidente corporativo de Data Center Accelerated Compute, AMD.
«Con nuestra cadencia anual actualizada de productos, somos implacables en nuestro ritmo de innovación, proporcionando las capacidades de liderazgo y el rendimiento que la industria de la IA y nuestros clientes esperan para impulsar la próxima evolución del entrenamiento y la inferencia de la IA en los centros de datos«.
El ecosistema de software de IA de AMD madura
El stack de software abierto AMD ROCm™ 6 continúa madurando, lo que permite que los aceleradores AMD Instinct MI300X impulsen un rendimiento impresionante para algunos de los LLM más populares. En un servidor que utiliza ocho aceleradores AMD Instinct MI300X y ROCm 6 que ejecuta Meta Llama-3 70B, los clientes pueden obtener un rendimiento de inferencia y una generación de tokens 1.3 veces mejores en comparación con la competencia.
En un solo acelerador AMD Instinct MI300X con ROCm 6, los clientes pueden obtener un mejor rendimiento de inferencia y rendimiento de generación de tokens en comparación con la competencia en 1.2 veces en Mistral-7B.
AMD también destacó que Hugging Face, el repositorio más grande y popular de modelos de IA, ahora está probando 700,000 de sus modelos más populares todas las noches para asegurarse de que funcionen de inmediato en los aceleradores AMD Instinct MI300X. Además, AMD continúa su trabajo ascendente en marcos de IA populares como PyTorch, TensorFlow y JAX.
AMD presenta nuevos aceleradores y revela su hoja de ruta anual.
Durante el keynote de apertura, AMD reveló una cadencia anual actualizada para la hoja de ruta del acelerador AMD Instinct para satisfacer la creciente demanda de más computación de IA. Esto ayudará a garantizar que los aceleradores AMD Instinct impulsen el desarrollo de modelos de IA de vanguardia de próxima generación. La hoja de ruta anual actualizada de AMD Instinct destaca:
El nuevo acelerador AMD Instinct MI325X, que aportará 288 GB de memoria HBM3E y 6 terabytes por segundo de ancho de banda de memoria, utiliza el mismo diseño de servidor de placa base universal estándar de la industria utilizado por la serie AMD Instinct MI300 y estará disponible de forma general en el cuarto trimestre de 2024.
El acelerador tendrá una capacidad de memoria y un ancho de banda líderes en la industria, 2 veces y 1.3 veces mejor que la competencia, respectivamente, y un rendimiento informático 1.3 veces mejor que el de la competencia.
El primer producto de la Serie AMD Instinct MI350, el acelerador AMD Instinct MI350X, se basa en la arquitectura AMD CDNA 4 y se espera que esté disponible en 2025. Utilizará el mismo diseño de servidor de placa base universal estándar de la industria que otros aceleradores de la Serie MI300 y se construirá utilizando tecnología de proceso avanzada de 3 nm, admitirá los tipos de datos de IA FP4 y FP6 y tendrá hasta 288 GB de memoria HBM3E.
Se espera que la arquitectura AMD CDNA «Next», que impulsará los aceleradores AMD Instinct MI400 Series, esté disponible en 2026 y proporcione las últimas características y capacidades que ayudarán a desbloquear un rendimiento y una eficiencia adicionales para la inferencia y el entrenamiento de IA a gran escala.
Por último, AMD destacó que la demanda de aceleradores AMD Instinct MI300X sigue creciendo con numerosos socios y clientes que utilizan los aceleradores para impulsar sus exigentes cargas de trabajo de IA, entre las que se incluyen:
- Microsoft Azure con los aceleradores para los servicios de Azure OpenAI y las nuevas máquinas virtuales Azure ND MI300X V5.
- Dell Technologies utiliza aceleradores MI300X en PowerEdge XE9680 para cargas de trabajo de IA empresarial.
- Supermicro ofrece múltiples soluciones con aceleradores AMD Instinct.
- Lenovo impulsa la innovación de la IA híbrida con el ThinkSystem SR685a V3.
- HPE los utiliza para acelerar las cargas de trabajo de IA en el HPE Cray XD675.