谷歌发布 Gemma 3n 端侧多模态模型,2GB 内存也能玩转 AI
作者头像
  • 2025-05-21 14:30:27 113

谷歌在2025年的I/O开发者大会上推出了一款名为Gemma 3n的新AI模型。这款模型能够在手机、平板和笔记本电脑上本地运行,能够处理音频、文本、图片以及视频等多种数据类型。

Gemma 3n的产品经理Gus Martins提到,这款模型可以在内存低于2GB的设备上运行,并且采用了与Gemini Nano相同的架构,但性能更为卓越。他表示:“Gemma 3n为设备端的AI应用提供了强大的支持。”

据图灵汇引用的一篇博文介绍,Gemma 3n的最大特点是使用了谷歌DeepMind开发的Per-Layer Embeddings(PLE)技术,这使得模型的内存需求大幅下降。虽然它的参数量达到了5B和8B,但实际内存占用却只相当于2B和4B的模型。

谷歌方面表示,Gemma 3n的内存占用最低仅为2GB和3GB。借助PLE、KVC共享和高级激活量化等技术,该模型在移动设备上的响应速度提升了1.5倍,质量也超过了Gemma 3的4B版本。

Gemma 3n在非英语语言处理方面也取得了进展,尤其是在日语、德语、韩语、西班牙语和法语中的表现尤为突出。在多语言基准测试WMT24++中,该模型获得了50.1%的高分。

用户无需额外配置,现在可以直接通过Google AI Studio在浏览器中体验Gemma 3n;而开发者则可以通过Google AI Edge集成本地功能,实现文本和图像的理解与生成,未来还会增加更多功能。

此外,页面底部还有关于2025谷歌I/O开发者大会的专题内容,以及一条广告声明,指出文章内的跳转链接旨在提供更多信息,方便用户选择,最终结果仅供参考。

    本文来源:图灵汇
责任编辑: :
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
模态模型内存发布Gemma端侧谷歌2GBAI3n
    下一篇