(图片来源:AMD)
6月4日消息,AMD 以一些非常重要的公告拉开了 Computex 的序幕:其新的 Instinct MI325X 加速器,将于 2024 年第四季度上市;即将推出的基于CDNA4架构的Instinct MI350系列,将于明年推出;以及基于CDNA“Next”的全新Instinct MI400系列产品将于2026年推出。
更重要的是,AMD更新的产品路线图承诺每年发布一次,通过增强的指令集以及更高的内存容量和带宽,确保AI和HPC性能的持续提高。
AMD Instinct MI325X 将配备高达 288GB 的 HBM3E 内存和 6 TB/s 的内存带宽。据AMD称,与Nvidia的H100相比,MI325X的推理性能和令牌生成性能将提高1.3倍。必须记住,AMD 的 Instinct MI325X 将与 Nvidia 的 H200 甚至 B100/B200 加速器竞争。
基于 AMD CDNA 4 架构构建的 MI350 系列预计将于 2025 年推出。该系列有望将 AI 推理性能提高 35 倍,而不是当前的 MI300 系列。Instinct MI350 系列将采用 3nm 级工艺技术,支持新的数据格式(FP4 和 FP6)以及指令,以提高 AI 性能和效率。
AMD表示,AMD ROCm 6软件堆栈在最大限度地提高MI300X加速器的性能方面发挥着至关重要的作用。该公司的基准测试显示,使用八个MI300X加速器的系统在Meta Llama-3 70B模型推理和代币生成方面比英伟达的H100高出1.3倍。根据AMD的测试,单个MI300X加速器在Mistral-7B模型任务中也表现出卓越的性能,比竞争对手高出1.2倍。
云服务提供商和系统集成商对 AMD Instinct MI200 和 MI300 系列产品的采用也在加速。MicrosoftAzure 将这些加速器用于 OpenAI 服务,Dell T 将它们集成到 PowerEdge 企业 AI 计算机中,联想和 HPE 将它们用于其服务器。
AMD数据中心加速计算公司副总裁Brad McCredie表示:“AMD Instinct MI300X加速器继续被众多合作伙伴和客户广泛采用,包括Microsoft Azure、Meta、Dell Technologies、HPE、Lenovo等,这是AMD Instinct MI300X加速器卓越性能和价值主张的直接结果。“随着我们更新的年度产品节奏,我们坚持不懈地创新,提供人工智能行业的领导能力和性能,我们的客户希望推动数据中心人工智能训练和推理的下一次发展。”
全部评论