在人工智能技术迅猛发展的推动下,高频宽存储器(HBM)成为了存储产业的焦点。近期,英伟达发布的全新图形处理器搭载了先进的HBM3e内存技术,这不仅提升了存储容量、带宽与性能,也促使全球领先的存储厂商如SK海力士、三星和美光公司加快了HBM产能的扩张。
据集邦咨询分析师汝合媛介绍,高端人工智能服务器中的图形处理器广泛采用HBM技术,预计2023年全球搭载HBM的总容量将达到2.9亿GB,同比增幅接近60%。中国电子商务专家服务中心副主任郭涛指出,已有数家A股上市公司涉足HBM领域,面对持续增长的算力需求,更多企业将加入这一领域的竞争行列。
HBM作为DRAM技术的一个分支,通过堆叠多个存储器单元,实现了高带宽、高容量与低功耗的优势,有效解决了内存容量与带宽的瓶颈问题。存储巨头对此高度重视,自2013年SK海力士成功研发HBM以来,三星、美光等公司相继加入,共同推进HBM技术的迭代升级,从第一代HBM发展至今的第四代HBM3和第五代HBM3e。
人工智能大模型的兴起带动了HBM在当前人工智能服务器图形处理器中的广泛应用。中国信息协会常务理事、国研新经济研究院创始院长朱克力认为,随着HBM技术的不断进步,尽管在实际应用中面临成本、良率和可靠性等挑战,其带宽、容量和能效等关键指标仍持续提升。未来几年内,HBM有望实现大规模商用。
汝合媛进一步分析,当前HBM市场主要由SK海力士、三星与美光公司主导,其中SK海力士处于领先地位,而三星和美光正加速追赶。预计HBM的主流规格将在2024年转向HBM3与HBM3e。
面对海量算力需求,HBM展现出广阔的应用前景。汝合媛预估,若以全球范围内生产5款类似ChatGPT的超大型生成式AI产品、25款中型生成式AI产品以及80款小型生成式AI产品计算,至少需要14.56万至23.37万颗A100图形处理器。
当前,HBM已成为存储行业的战略高地,吸引着上下游企业的积极参与。联瑞新材等上游材料企业在投资者互动平台表示,HBM技术带来了对材料性能、封装技术的更高要求,尤其是对超细粉体材料的需求日益增加。国芯科技、概伦电子等芯片设计企业正与合作伙伴紧密合作,推进HBM技术的研发与应用,以满足人工智能应用的需求。佰维存储则聚焦于HBM所需的封装技术,积极筹备相关项目。
朱克力强调,在全球半导体行业竞争激烈的背景下,掌握自主研发能力和技术优势的企业将更具竞争优势。构建完整的HBM生态系统,实现存储器与处理器、互连等组件的协同优化,将是推动HBM普及与应用的关键方向。