未分类 · 2026年4月21日 0

Gemma 4 正式开源,开源赛道迎来变局!

4月3日凌晨,谷歌DeepMind悄然推出一枚重磅炸弹——全新一代开源大模型GeMa 4正式发布,以极其宽松的Apache 2.0协议向全球开发者开放。这是自2025年3月发布GeMa 3以来,谷歌时隔整整一年的重大迭代。

本次发布的GeMa 4包含四个不同规格的版本:E2B(有效200亿参数)、E4B(有效40亿参数)、26B混合专家模型(MoE)以及3B稠密模型(Dense),全覆盖从手机、树莓派到工作站和服务器的需求。

谷歌CEO DeMis Ha在社交平台上以四颗钻石emoji暗示此次发布,并表示:“这是全球同等规模下最好的开源模型。”

Apache 2.0协议:一次迟到的诚意释放。GeMa 4最值得关注的变化并非参数或性能,而是它的开源协议。此前GeMa系列采用谷歌自有的定制化条款,开发者抱怨了一整年——可以用,但用途受限,分发受限,修改了也不能随便传播,充其量只能算“开放模型”,远达不到真正的“开源标准”。相比之下,GeMa 4直接换成了Apache 2.0协议,这是业界最宽松、最成熟的开源协议之一。没有使用限制条款,没有“禁止危害用途”等需要法律团队逐条解释的灰色地带,对再分发和商业部署没有任何限制。

这一转变意味着,企业和个人开发者现在可以无门槛地自由修改、分发和商业化使用GeMa 4,无需担心谷歌中途收回授权。对于此前因许可证问题转向Mistral或Qwen的团队而言,这个堵点终于被消除了。

如果说许可证转向是态度上的诚意,那么性能表现则是技术上的硬实力。GeMa 4 3B Dense版本在ARena AI文本开源排行榜中冲到了全球第三,Elo评分145,仅次于GLM-5和KiMi 2.5。排在前面的两位,参数分别是它的20倍和30倍。换句话说,谷歌用三十分之一的体量打出了同等水平的成绩,“参数效率”这个词被重新定义。

26B MoE版本同样表现亮眼:260亿总参数,推理时仅激活38亿,Elo达到144,位列开源榜单第六。这意味着在手机上跑一个小模型,得到的响应质量可以堪比一年前千亿级参数的云端模型。

具体数据更为直观。相比上一代GeMa 3 27B,GeMa 4 3B在数学习推理基准AI ME 20 26上从20.8%跳升至89.2%;代码能力基准Live Bench v6从29.1%涨到80.0%,代码forces编程竞赛ELO评分从110拉到250,相当于人类编程竞赛“紫名”的水平。衡量量的智能工具调用能力的τ2-bench从6.6%大幅跃升至86.4%。在研究生级科学生级问答GPQA Diamond测试中,得分从4.2%升至84.3%,几乎翻倍。

多模态能力同步补齐。所有版本均支持图像和视频输入,小模型版本额外搭载了音频编码器,支持语音识别与翻译。在GeMa MU Pro多模态推理测试中,3B版本达到了76.9%,大幅领先前代的49.7%。

从口袋到心的全场景覆盖,GeMa 4的硬件适配范围堪称全面。3B Dense追求极致原始性能,未量化的bfloat16权重可放入单张80GB NVIDIA H100显卡运行,量化版本在消费级显卡上也能跑。26B MoE侧重低延迟,推理时仅激活38亿参数,速度极快,适合实时语音助手、自动化操作等需要快速响应的场景。

端侧的E2B和E4B则与谷歌Pixel、 Qualcomm、联发科联合优化,可在手机、树莓派、NVIDIA Jetson Orin Nano上完全离线运行,延迟接近于零。E2B在部分设备上的内存占用可压至1.5GB以下,使得真正的端侧AI部署成为现实。

此外,GeMa 4全系列内置可开启的“思考模式”,模型在输出答案前会先进行内部推理,极大提升了多步骤规划类任务的准确性。原生支持函数调用和结构化JSON输出,谷歌还同步发布了开源Agent开发工具包(ADK),让端侧模型也能变身“智能体”。

开源赛道迎来变局,自2024年4月GeMa首次发布以来,开发者已下载GeMa系列超过4亿次,构建了拥有超过10万个变体的生态系统。在上一代GeMa 3发布后的一年里,国内开源模型如DeepSeek、Qwen、GLM等迭代了好几轮,谷歌在开源领域的存在感大幅削弱。此次GeMa 4的发布,不仅是技术上的代际飞跃,更是开源赛道的一次权力重组。

GeMa 4现已可在多个平台免费使用。对于全球数百万开发者而言,一个真正开源、性能顶尖且能在本地自由运行的AI模型,正从云端落入每个人的口袋里。