
谷歌发布Gemma 4开源AI模型,改用Apache 2.0许可证
谷歌今日正式推出Gemma 4开源模型系列,这是其开源模型一年来的首次重大更新。新系列包含四个不同规模的模型,专为本地运行优化,并宣布放弃原有的自定义许可证,全面转向Apache 2.0许可证,以回应开发者对AI许可的关切。
模型阵容:从数据中心到移动设备
Gemma 4系列覆盖了从高性能计算到边缘设备的广泛场景:
- 26B Mixture of Experts (MoE):这是一个260亿参数的混合专家模型。其核心优势在于推理时仅激活38亿参数,从而在类似规模的模型中实现了更高的每秒处理令牌数(tokens per second),显著降低了延迟。谷歌设计其可在单块80GB的NVIDIA H100 GPU上以bfloat16格式(非量化)运行。
- 31B Dense:这是一个310亿参数的稠密模型。与26B MoE侧重速度不同,31B Dense更注重输出质量。谷歌预期开发者会针对特定用途对其进行微调,以发挥其最大潜力。
- Effective 2B (E2B) 与 Effective 4B (E4B):这两款模型专为移动和边缘设备设计,在推理时分别保持约20亿和40亿参数的有效规模。谷歌的Pixel团队与高通(Qualcomm) 和联发科(MediaTek) 紧密合作,针对智能手机、树莓派(Raspberry Pi)和英伟达Jetson Nano等平台进行了优化。谷歌宣称,相比Gemma 3,新模型不仅内存和电池消耗更低,甚至能实现“近乎零延迟”。
性能与定位:小而强的本地选择
谷歌声称,所有Gemma 4模型在性能上都远超上一代的Gemma 3,是当前能在本地硬件上运行的能力最强的模型之一。具体而言,Gemma 31B预计将在开源AI模型竞技场(Arena)排行榜上位列第三,仅次于GLM-5和Kimi 2.5。值得注意的是,即使最大的Gemma 4模型,其参数量也远小于排名靠前的对手,这意味着其理论运行成本要低得多。
开源策略的重大转变:拥抱Apache 2.0
本次更新最受社区关注的或许并非模型本身,而是许可证的变更。谷歌放弃了为前代Gemma模型定制的专属许可证,转而采用业界广泛使用、限制更少的Apache 2.0开源许可证。这一举动直接回应了开发者社区长期以来对AI模型使用条款复杂性和限制性的批评。Apache 2.0许可证以其宽松的商业友好特性著称,此举将极大降低开发者和企业采用、修改及商业化部署Gemma模型的法律门槛与不确定性。
行业背景与意义
在闭源的Gemini模型快速迭代的同时,谷歌通过Gemma系列持续耕耘开源生态。Gemma 4的发布,标志着谷歌正试图在高性能闭源服务与灵活可定制的开源基础模型之间建立更清晰的战略协同。基于与Gemini 3相同的底层技术,Gemma 4让更广泛的开发者能够利用谷歌前沿的AI研究成果,在本地环境中进行创新,这有助于巩固谷歌在AI基础设施层的影响力。
从模型设计上看,提供从数据中心级(26B/31B)到终端级(E2B/E4B)的完整谱系,显示了谷歌对AI普惠化和边缘计算趋势的重视。许可证的开放则可能吸引更多开发者加入其生态,与Meta的Llama系列等开源模型展开更直接的竞争。
小结:Gemma 4的推出不仅是技术的迭代,更是谷歌开源AI战略的一次重要调整。通过提供性能更强、覆盖场景更广的模型,并采用更友好的开源许可证,谷歌正努力降低先进AI技术的应用门槛,以期在蓬勃发展的开源模型生态中占据更有利的位置。