当前人工智能大模型的创新热潮
随着科技部在2023中关村论坛上发布的《中国人工智能大模型地图研究报告》,揭示了中国人工智能大模型领域的蓬勃发展趋势。报告指出,截至当前,全国范围内已发布超过79个参数规模在10亿级别的大模型。
然而,这一快速发展背后,面临着一系列挑战。FATE开源社区技术指导委员会主席、香港科技大学讲席教授杨强指出,这些挑战包括日益稀缺的公共领域数据、日益增长的隐私安全保护需求,以及众多异构小型模型的整合需求。联邦大模型被视为解决这些问题的关键途径之一。
在这一背景下,FATE(Federated AI Technology Enabler)开源平台推出了“FATE-LLM联邦大模型”功能模块,采用“联邦学习+大模型”的技术方案,旨在解决数据隐私保护与数据不足的问题。这一创新允许参与方在不泄露敏感数据的情况下,依据各自的数据量进行算力投入,共同进行大模型的训练。
最新动态:
- FATE-LLM的最新版本发布,特别在横向联邦场景下支持了ChatGLM-6B中文语言大模型。
- 集成GLM的FATE-LLM为国内用户提供了更多样化的中文大模型应用选择。
关键特性与成就:
- ChatGLM-6B是由清华大学和智谱AI联合研发的开源大模型,支持中英双语问答,特别针对中文进行了优化。该模型基于General Language Model架构,参数规模达到62亿,通过模型量化技术实现了在消费级显卡上的本地部署(在INT4量化级别下最低只需6GB显存)。自发布以来,ChatGLM-6B在GitHub上获得了超过26万的星标,全球下载量超过200万,连续两周占据全球开源大模型平台Hugging Face的大模型趋势榜榜首。
技术升级与应用展望:
- FATE-LLM的新版本引入了Adapter、Prompt等高效聚合方法,显著提升了联邦大模型的训练效率,并支持了如Lora、P-Tuning V2在内的参数微调方法。
- 深度集成DeepSpeed,FATE-LLM实现了多机多卡训练的支持,优化了分布式GPU集群资源调度与管理,支持多种并行化加速策略。
- 面向中文优化的FATE-LLM将推动金融、教育、医疗等领域的人工智能助手、智能问答、自然语言处理等应用场景的性能提升。
未来愿景与社会责任:
- 清华大学教授唐杰强调,科研团队致力于降低人工智能的使用门槛,促进技术普惠,以推动行业的健康与可持续发展。
- 开源不仅是一种技术实践,更是一种分享精神与沟通模式。开源平台与生态将加速大模型的迭代与实际应用,同时确保大模型发展在安全、可靠的基础上推进,满足监管与伦理的需求,促进AI技术的高质量发展。