在2023年8月8日于洛杉矶举办的SIGGRAPH大会中,英伟达(NVIDIA)的CEO 黄仁勋宣布了一项重大突破:推出全新的GH200 Grace Hopper 超级芯片平台,此平台被定位为全球首个集成HBM3e(High Bandwidth Memory 3e)内存的AI芯片解决方案。
平台构成:GH200 Grace Hopper 超级芯片平台由两个关键组件组成:72核的Grace CPU与GH100 Hopper 计算GPU。这一平台的设计理念在于整合CPU与GPU功能,实现性能与效率的双重优化。
技术创新:相较于先前的版本,GH200 Grace Hopper 超级芯片平台的最大亮点在于采用了HBM3e内存技术。HBM3e内存是一种革命性的高带宽内存方案,它能在有限的空间内实现惊人的数据传输速度。
性能飞跃:相较于前一代产品,GH200 Grace Hopper 的内存容量实现了3.5倍的增长,而带宽则提升了3倍。与主流的H100相比,其内存容量增加了1.7倍,传输频宽则提高了1.5倍。这些显著的性能提升,使得该平台在人工智能领域尤其是大型模型的训练任务中展现出卓越效能。
AMD也在今年6月推出了搭载HBM3内存的数据中心GPU Instinct MI300X,这一动作与英伟达的举措形成竞争态势,旨在巩固各自在AI领域的市场份额。
在此次大会上,NVIDIA还发布了一系列创新产品和服务,包括NVIDIA AI Workbench,以及通过生成式AI和OpenUSD技术升级的NVIDIA Omniverse。此外,NVIDIA宣布与AI开源社区Hugging Face合作,旨在为全球数百万开发者提供生成式AI超级计算能力,助力他们构建大型语言模型和AI应用。
黄仁勋强调,要使生成式AI的能力普及至全球各地,必须确保其易于部署和广泛适用。他表达了推动生成式AI普惠化的决心,旨在让所有开发者都能参与其中。
当前,算力已成为科技企业角逐AI市场的关键资源。凭借GPU在算力方面的绝对优势,NVIDIA持续引领着这一领域的创新潮流。尽管AMD和英特尔等竞争对手正在加速追赶,但NVIDIA的GPU以其强大的性能、完善的软件生态系统,继续成为业界的首选标准,为开发者提供训练大型模型和开发AI应用的强大支持。