焦点观察:AI大模型热潮涌动,国产厂商竞相入场
近来,AI大模型的概念在科技界引发热议,成为市场关注的焦点。随着多家知名上市公司的宣布,进军AI大模型领域,这一领域的关注度持续攀升。在投资者互动平台上,众多公司被频繁提及,讨论点主要集中在是否计划推出大模型产品以及能否提供技术支持等方面。
浙商证券指出,以ChatGPT为代表的不断迭代的GPT系列,凸显出大模型已成为科技企业核心竞争力的关键要素,预示着大模型将在AIGC时代扮演核心支撑角色。
国产AI大模型竞争格局初显
仅在四月十日这一天,便有多家上市公司披露了在大模型领域的最新进展。其中,昆仑万维与奇点智源合作,即将发布“天工”3.5版大语言模型,并计划于四月十七日启动测试。据昆仑万维介绍,“天工”大模型的智能水平已接近ChatGPT。此消息发布后,昆仑万维股价上涨9.5%,收于每股45.76元。
同日,商汤科技推出了“日日新SenseNova”大模型体系,涵盖自然语言处理、内容生成、自动化数据标注、自定义模型训练等多个大模型及功能。软通动力则表示,已在数据业务领域探索多模态大模型研究,并将其应用于包括风险识别在内的综合管理业务,涉及图像、文本、视频等多元化数据源。
四月十一日,阿里云正式发布自主研发的大模型“通义千问”。此外,华为云的人工智能领域首席科学家田奇介绍了盘古大模型的进展和应用案例,特别强调了CV大模型和科学计算大模型的应用场景。多家公司透露了未来发布大模型的计划,国产AI大模型正呈现百花齐放之势。
算力芯片成为关键
大模型的构建不仅依赖于庞大且丰富的数据集,还需强大的智能算力作为支撑。国际数据公司等机构的数据显示,2022年中国智能算力规模达到268百亿亿次/秒,超过了通用算力规模;预计未来五年,智能算力规模的年复合增长率将达到52.3%。
智能算力的发展与算力芯片紧密相连,GPU芯片被认为是提升AI算力的核心组件。张孝荣指出,构建大模型的关键在于GPU芯片,因其能够提供更高的计算性能,加速模型训练过程。
王鹏分析称,相较于传统芯片,高端GPU芯片如NVIDIA的产品在算力方面优势明显,更适合大模型的训练需求。然而,我国在GPU芯片领域仍面临挑战,如受限于美国政府的出口限制,无法获得最先进的NVIDIA GPU,且高昂的价格(单块芯片价格在1万至2万美元之间),以及大模型所需数万块GPU的庞大投入,使得成本压力显著。
政策扶持与市场布局
面对算力芯片领域的瓶颈,郭涛建议,国家相关部门应加大政策支持力度,推动智能计算中心的建设和运营,加速智能算力相关领域的创新发展,制定战略规划,解决算力芯片的瓶颈问题。
上市公司也积极投身于算力芯片领域的建设。甬矽电子表示正在研发与算力芯片相关的封装技术及应用,而中兴通讯总裁徐子阳透露,公司计划在今年底推出支持ChatGPT的GPU服务器,表明行业内的积极行动与战略布局。
综上所述,AI大模型的热潮不仅体现在技术层面的竞争与创新,更反映在算力基础设施的建设与优化上。面对全球科技前沿的挑战与机遇,中国企业在AI领域展现出的决心与行动,值得期待。