6月11日,依据科技资讯网站Hpcwire报道,半导体研究机构TechInsights最新数据揭示,2023年度全球数据中心GPU总出货量攀升至385万颗,较前一年的267万颗增长44.2%。其中,英伟达(Nvidia)凭借98%的市场份额稳坐首位。
英伟达在2023年成功售出376万颗数据中心GPU,相比2022年的264万颗增长了112万颗。在全球385万颗数据中心GPU的总出货量中,英伟达占据98%的市场份额,与去年份额相当。
AMD与英特尔(侧重数据中心GPU Max系列,未包含Gaudi ASIC芯片)的总出货量在2023年合计仅为9万颗。
若从销售收入角度来看,英伟达在2023年占据了整个市场98%的份额,销售额达到362亿美元,是2022年109亿美元的三倍多。
TechInsights分析师詹姆斯·桑德斯指出,随着人工智能的快速发展,英伟达在市场上的垄断地位将面临更多竞争者,如谷歌的TPU、AMD的GPU、英特尔的AI芯片和GPU等。
桑德斯认为,由于人工智能的发展,市场可能不得不从英伟达的主导走向多元化,这是不可逆转的趋势。
英伟达的GPU短缺和高昂成本为AMD和英特尔等竞争对手提供了机会。这两家公司借助2023年推出的新数据中心GPU,实现了显著增长。
AMD的MI300系列GPU市场表现强劲,已锁定微软、Meta和Oracle等采购订单。AMD首席执行官Lisa Su表示,预计2024年数据中心GPU收入将超过40亿美元,高于此前预计的35亿美元。
在Computex 2024展会上,AMD计划每年发布新款GPU,包括今年的MI325X,2025年的MI350,以及2026年的MI400。
英伟达在Computex 2024展会上宣布,Blackwell芯片已开始生产,计划于2025年推出Blackwell Ultra GPU芯片。下一代AI平台“Rubin”集成了HBM4内存,预计2026年发布。
英特尔则专注于Gaudi AI芯片的研发,Gaudi 3芯片在性能和能效方面超越了英伟达的H100芯片,且价格仅为H100的一半,对寻求性价比的公司具有吸引力。然而,这种芯片的灵活性不及GPU,需要专门编程才能运行生成式AI模型。
谷歌自2013年开始研发云端AI加速芯片,用于加速内部工作负载,现已成为第三大数据中心芯片供应商,仅次于英伟达和英特尔。谷歌自研的TPU芯片虽未对外销售,但在2023年自用数量已突破200万颗,成为全球第二大数据中心AI加速芯片供应商。
谷歌自研的视频编码器Argos,每芯片峰值性能提升4.7倍,HBM内存容量和带宽翻倍,能效提升67%。此外,谷歌还推出了基于Arm架构的自研数据中心处理器Axion CPU,计划于今年晚些时候上市。
头部云服务厂商正逐渐转向自研芯片,以实现更高的能效、降低成本、减少对单一供应商的依赖。这一趋势促使包括谷歌、亚马逊、阿里巴巴、华为、百度、微软在内的众多云服务提供商纷纷推出自研的数据中心CPU和AI加速芯片。然而,尽管自研芯片策略展现出巨大潜力,英特尔、AMD和英伟达仍保持着在数据中心CPU和GPU市场的主导地位。