谷歌正式发布 Gemma 3n 小钢炮模型:2GB 内存本地玩
科技媒体 NeoWin 今天发布博文,报道称在 2025 年 I/O 开发者大会上预览发布后,谷歌已正式推出 Gemma 3n 端侧多模态模型,相比较 5 月发布的预览版,最新发布的 Gemma 3n 完整版进一步提升性能表现,支持在 2GB 内存的硬件上本地运行,重点提升了编码和推理方面的能力。
援引博文介绍,Gemma 3n 共有两种规模版本,其中 E2B 共有 50 亿参数,支持在 2GB 以上内存设备上运行;E4B 共有 80 亿参数,支持在 3GB 以上内存设备上运行,两者通过架构创新,内存占用相当于 20 亿和 40 亿模型。
在架构方面,Gemma 3n 创新采用 MatFormer 架构,来提供计算灵活性,此外使用 Per Layer Embeddings以提升内存效率、MobileNet-v5 对于 MatFormer 架构,谷歌用一个俄罗斯套娃的比喻来描述:一个较大模型内部包含一个较小但完全功能的版本,让单一模型能够根据不同任务以不同大小运行。
Gemma 3n 在多语言、数学、编码和推理方面都实现了质量提升。
在性能基准方面,较大的 E4B 模型是首个参数量低于 10B 但 LMArena 得分超过 1300 的模型。
模型的音频能力现在支持设备上的语音转文本和翻译,使用一个能够处理细致语音的编码器。