FATE开源社区发布联邦大模型FATE-LLM新版本,支持中文大语言模型ChatGLM-6B联邦化训练
作者头像
  • 郑沛
  • 2023-06-07 00:00:00 3074

当前人工智能大模型的创新热潮

随着科技部在2023中关村论坛上发布的《中国人工智能大模型地图研究报告》,揭示了中国人工智能大模型领域的蓬勃发展趋势。报告指出,截至当前,全国范围内已发布超过79个参数规模在10亿级别的大模型。

然而,这一快速发展背后,面临着一系列挑战。FATE开源社区技术指导委员会主席、香港科技大学讲席教授杨强指出,这些挑战包括日益稀缺的公共领域数据、日益增长的隐私安全保护需求,以及众多异构小型模型的整合需求。联邦大模型被视为解决这些问题的关键途径之一。

在这一背景下,FATE(Federated AI Technology Enabler)开源平台推出了“FATE-LLM联邦大模型”功能模块,采用“联邦学习+大模型”的技术方案,旨在解决数据隐私保护与数据不足的问题。这一创新允许参与方在不泄露敏感数据的情况下,依据各自的数据量进行算力投入,共同进行大模型的训练。

最新动态:

  • FATE-LLM的最新版本发布,特别在横向联邦场景下支持了ChatGLM-6B中文语言大模型。
  • 集成GLM的FATE-LLM为国内用户提供了更多样化的中文大模型应用选择。

关键特性与成就:

  • ChatGLM-6B是由清华大学和智谱AI联合研发的开源大模型,支持中英双语问答,特别针对中文进行了优化。该模型基于General Language Model架构,参数规模达到62亿,通过模型量化技术实现了在消费级显卡上的本地部署(在INT4量化级别下最低只需6GB显存)。自发布以来,ChatGLM-6B在GitHub上获得了超过26万的星标,全球下载量超过200万,连续两周占据全球开源大模型平台Hugging Face的大模型趋势榜榜首。

技术升级与应用展望:

  • FATE-LLM的新版本引入了Adapter、Prompt等高效聚合方法,显著提升了联邦大模型的训练效率,并支持了如Lora、P-Tuning V2在内的参数微调方法。
  • 深度集成DeepSpeed,FATE-LLM实现了多机多卡训练的支持,优化了分布式GPU集群资源调度与管理,支持多种并行化加速策略。
  • 面向中文优化的FATE-LLM将推动金融、教育、医疗等领域的人工智能助手、智能问答、自然语言处理等应用场景的性能提升。

未来愿景与社会责任:

  • 清华大学教授唐杰强调,科研团队致力于降低人工智能的使用门槛,促进技术普惠,以推动行业的健康与可持续发展。
  • 开源不仅是一种技术实践,更是一种分享精神与沟通模式。开源平台与生态将加速大模型的迭代与实际应用,同时确保大模型发展在安全、可靠的基础上推进,满足监管与伦理的需求,促进AI技术的高质量发展。
    本文来源:图灵汇
责任编辑: : 郑沛
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
联邦模型FATE开源中文训练ChatGLM语言版本支持
    下一篇