导读
大模型热潮持续一年,催生了行业定制与特定场景小模型等多样化技术与应用。2024年,大模型将继续深融各企业业务,驱动智能化升级。同时,承载大模型的算力需求成为关键挑战,尤其是GPU资源紧张时如何获取充足的AI算力。
概览
大模型的普及引发AI算力需求激增,而CPU平台的创新应用,如英特尔的高级矩阵扩展(AMX),正逐步改变这一局面。阿里巴巴云近期发布ECS g8i实例,搭载第五代英特尔至强可扩展处理器,主打AI推理性能,最高提升7倍,支撑72B参数大语言模型,展示CPU体系在AI领域的潜力。
算力升级
ECS g8i实例在计算、存储、网络与安全上进行全面优化:
- 计算能力:L3缓存容量提升3倍,内存速率高达5600MT/s,整机性能提升85%,单核性能提升25%,大幅提升AI应用效率。
- 存储能力:ESSD云盘提供100万IOPS,NVMe加持,数据读写速度极快,适合大数据处理。
- 网络能力:PPS高达3000万,阿里云自研eRDMA大规模加速,数据传输低至8微秒,适用于远程数据传输与云计算。
- 安全能力:支持可信计算与加密计算,全球首发虚拟机层的机密技术英特尔可信域拓展(TDX),保障数据安全。
端到端优化
ECS g8i实例集群通过优化内置指令集与AMX加速技术,显著提升生成式AI运算速度,减少首包延迟,实现性能零损耗,支持AI工作负载,如AI生成代码、虚拟助手及创意辅助工具,降低运行成本与提高效率。
安全防护
基于自研云基础设施处理器CIPU,ECS g8i提供全链路安全防护,包括可信启动、虚拟可信与机密计算,确保模型在云端的安全运行。
结语
阿里巴巴云ECS g8i实例的发布,展示了CPU在AI领域的巨大潜力,通过端到端优化与安全防护,加速AI模型在2024年的应用与创新,促进AI算力的普及与普惠。