ITBear旗下自媒体矩阵:

谷歌Gemma 4开放权重模型登场:开源协议革新,全场景智能生态新启航

   时间:2026-04-04 04:29:41 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

谷歌DeepMind近日推出全新开放权重模型系列Gemma 4,凭借Apache 2.0许可证的采用和突破性技术架构,迅速成为人工智能领域焦点。该系列不仅彻底摒弃了此前备受争议的许可限制,更通过多模态能力与硬件优化方案,为开发者构建了覆盖全场景的智能生态。

此次发布的四款模型形成差异化矩阵:工作站场景包含310亿参数的稠密模型与260亿参数的混合专家模型,前者以极致输出质量见长,后者通过动态激活128个专家模块中的部分单元,实现仅38亿参数的高效运算。边缘设备端则推出E2B(51亿参数/23亿有效计算量)与E4B(80亿参数/45亿有效计算量)两款模型,其独创的每层嵌入技术使智能水平远超同尺寸模型,更突破性地支持离线语音处理功能。

技术测试数据显示,310亿稠密模型在AIME 2026数学基准测试中取得89.2%的准确率,LiveCodeBench编程测试达80.0%,Codeforces算法竞赛评分突破2150分。混合专家模型以微弱差距紧随其后,而E4B在同类测试中仍保持42.5%-52.0%的优异表现,性能超越前代270亿参数的Gemma 3。视觉处理方面,新模型支持70-1120块的可变分辨率图像分割,可同时分析多张截图或视频帧序列,在OCR识别与文档解析场景展现显著优势。

许可证变革被业界视为关键突破。相较于此前谷歌自定义许可中的使用限制,Apache 2.0的采用使企业能够自由进行模型微调与商业部署。该开源协议已获安卓系统、阿里Qwen及法国Mistral等项目验证,此次调整直接解决了大型企业用户面临的法律审查障碍。谷歌声明强调:"我们认真听取了创新者的需求",并透露Gemma 4与闭源的Gemini系列共享核心技术生产线。

硬件适配层面,谷歌推出量化感知训练技术确保模型精度损失最小化。260亿混合专家模型经4位量化后可部署于24GB显存的消费级显卡,310亿稠密模型量化版本亦能在普通工作站运行。通过与高通、联发科的合作,小模型在移动端实现功耗优化,安卓开发者已可通过AICore预览版体验智能体工作流,未来将与Gemini Nano 4无缝兼容。

自初代发布以来,Gemma系列累计下载量突破4亿次,社区衍生出超10万个变种模型。此次升级标志着谷歌开放战略的深化,开发者现可在本地硬件运行接近前沿闭源水平的模型,从函数调用、结构化输出到代码生成等场景均获得原生支持。主流推理框架vLLM、SGLang及llama.cpp已同步适配,模型现已登陆Hugging Face、Kaggle等平台。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version