韩国科技领头羊三星电子宣布已成功研发出12层高带宽存储器(HBM3E),预计将于今年上半年大规模投产,具体客户名单暂未公布。与此相呼应,美国存储解决方案专家美光科技近日宣布启动HBM3E生产,将向全球领先的图形处理器制造商英伟达提供24GB8HHBM3E型号产品,此款产品预计将在2024年第二季度面市,集成于英伟达的H200 Tensor Core GPU内。
随着人工智能(AI)技术的蓬勃发展,存储能力正逐渐成为衡量AI芯片效能的关键指标。AI技术的革新迫切需要高带宽存储器(HBM)的支持。英伟达发布的最新AI芯片H200在内存配置方面实现了显著升级,而内存技术的创新成为推动AI性能提升的重要因素。HBM,作为一种利用3D堆叠技术的高性能动态随机存取存储器(DRAM),成功地解决了内存带宽和能耗的挑战,GPU性能的增强进一步加速了HBM技术的发展。HBM主要应用于AI服务器领域,根据市场研究机构Trendforce的数据,2022年AI服务器的出货量达到86万台,预计至2026年这一数字将攀升至超过200万台,年复合增长率高达29%。AI服务器出货量的增长为HBM需求的激增提供了强大推动力,同时,随着服务器平均HBM容量的提升,预测到2025年HBM市场规模将达约150亿美元,年增长率超过50%。
依据财经信息平台财联社的主题库资料,相关上市企业动态如下:
(财联社报道) 最后更新于2024-03-11 11:32:30