《大模型发展与底层技术的突破》
大模型的未来之路依赖于底层技术的持续革新,包括技术、通讯与存储技术。只有这些基础层面的技术不断取得突破,方能推动人工智能达到更高层次的要求。英特尔正积极布局这些关键领域,致力于人工智能、边缘到云端的基础架构、连接与传感技术的提升。
在2023年世界人工智能大会上,英特尔中国区网络与边缘事业部首席技术官、英特尔高级首席AI工程师张宇接受了界面新闻的采访。他表示:“当前AI大模型的商业化进程尚未找到成熟模式与稳定的应用场景。尽管ChatGPT等工具备受关注,如用于论文撰写或图像生成,但其近期的访问量已有所下滑。”
张宇进一步分析:“尽管如此,ChatGPT开启的AI新时代不可忽视。目前,AI大模型与AIGC技术仍处于初步阶段,面临成本、数据和人力的限制。随着人工智能与算力的持续进步,这些挑战有望逐步解决。”
作为行业巨头,英特尔虽然在AI计算领域相较于GPU领军者英伟达稍显逊色,但在提供广泛的算力资源和完整的软硬件解决方案方面占据一席之地。张宇指出,不同计算资源的高效调度是一个关键问题。为此,英特尔采取了OneAPI策略,旨在通过统一的编程模型和API接口简化资源管理,降低对底层硬件差异的敏感度。
面对AI应用的广泛普及,底层计算芯片的需求日益增长。张宇提到,GPU在AI计算任务中表现出色,已成为市场的首选。英特尔则聚焦于开发专门用于大模型训练的Habana Gaudi 2 AI芯片,以此作为其AI战略的核心产品之一。此外,英特尔还致力于优化网络互连技术,以解决大模型训练与推理过程中的网络瓶颈,通过提升网络速度和改进传输协议的可靠性,加速数据处理效率,增强整体系统性能。