AMD正在全力抢占人工智能(AI)计算领域的领先地位。在最近结束的AMD Advancing AI大会上,公司CEO苏姿丰博士介绍了AMD的五大AI平台,包括EPYC处理器、Instinct加速器、Pensando网卡以及Ryzen AI和Radeon AI处理器、Versal自适应SoC。她特别强调了AMD如何借助硬件和软件生态系统推动AI技术的发展。
根据市场预测,数据中心AI加速器市场将以每年60%以上的速度增长,预计到2028年将达到5000亿美元。其中,推理部分的增长尤为显著,未来几年预计每年增长率将超过80%,成为AI计算的核心驱动力。
在与英特尔至强8592+对比的测试中,使用AMD Instinct MI300X GPU的情况下,第五代AMD EPYC 9575F在运行不同规模的Llama和Mixtral模型时表现出色,性能提升幅度分别为6%、11%和17%。
AMD的EPYC服务器CPU在处理大型语言模型如DeepSeek-R1方面展现了强劲实力。以DeepSeek UD-IQ1-S模型为例,该模型包含6710亿个参数,其中激活了370亿个参数。在Llama.cpp环境下运行时,第五代AMD EPYC 9755和EPYC 9965相比第六代英特尔至强6980P,性能分别提高了64%和89%。
大会期间,AMD还展示了完整的AI基础设施方案,计划于今年下半年推出的新一代AI基础设施将整合AMD MI350系列GPU、第五代EPYC处理器以及Pensando “Pollara”网卡。而下一代AI机架“Helios”则计划于明年推出,将采用MI400系列GPU、EPYC “Venice” CPU和Pensando “Vulcano”网卡。
其中,旗舰服务器CPU“Venice”采用2nm工艺,基于Zen 6架构,最多可达256核,CPU到GPU的带宽翻倍,代际性能提升70%,达到1.6TB/s。
尽管GPU被认为是训练和生成式AI的理想工具,但CPU仍是处理传统机器学习任务的首选,因为它直接影响GPU性能的发挥。高核心数、高内存带宽、高I/O带宽、高指令每周期数(IPC)以及高能效等特性,使AMD EPYC CPU成为AI推理的重要选择。
实时AI应用需要快速的数据访问能力。CPU需高效管理海量数据,再传递给GPU。高容量内存和高速内存带宽有助于减少延迟,提高效率。第四代EPYC CPU支持DDR5内存和PCIe 5.0,而第五代EPYC CPU进一步优化了核心数等配置,特别适合实时推理场景。
第五代EPYC CPU最高主频可达5GHz,比英特尔近期发布的至强6745P高出16%,也高于英伟达Grace超级芯片的基准频率,这确保了AI任务的低延迟运行。此外,它在双插槽配置中提供了多达160条PCIe Gen5通道,支持快速数据传输。
在TPCx-AI基准测试中,第五代EPYC 9755和EPYC 9965分别比第六代至强6980P高出14%和70%。
与Arm架构相比,AMD EPYC CPU采用的x86架构具备同步多线程(SMT)功能,这使其在多线程工作负载中更具优势。x86架构还具有广泛的软件兼容性,无需复杂的软件迁移过程,并能支持广泛部署的关键业务应用。
AMD不仅支持主流AI框架,还与开源社区紧密合作,确保开源模型能够在EPYC CPU上流畅运行。通过优化库,还能提高性能和多实例运行的可能性。
AMD一直致力于提升能效,目标是在2030年前将机架级能效提高20倍,同时减少95%的运营用电量。结合软件优化,整体能效有望提升100倍。
得益于EPYC CPU的出色表现,AMD的数据中心业务迅速增长。今年前五个月,数据中心收入达到37亿美元,同比增长57%,主要得益于EPYC CPU和Instinct GPU销量的增加。
AMD EPYC CPU凭借其高核心数、内存优势和灵活的配置,为企业提供了强大的性能、效率和性价比,成为构建未来数据中心的理想选择。随着AI行业的快速发展,这些特性使其成为企业应对多样化工作负载的最佳解决方案之一。