ITBear旗下自媒体矩阵:

谷歌Gemma 4大模型登场:多规格覆盖全场景 性能参数双飞跃

   时间:2026-04-03 10:49:10 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

谷歌DeepMind近日正式发布新一代开源大模型Gemma 4,这款模型与谷歌闭源旗舰Gemini共享底层技术架构,标志着谷歌在开源大模型领域迈出重要一步。此次发布采用Apache 2.0商业友好型许可证,开发者可自由修改、分发及进行商业应用,显著降低了技术使用门槛。

Gemma 4系列包含四款不同规格模型,覆盖从手机、边缘设备到工作站、服务器的全场景部署需求。其中31B Dense版本采用310亿参数全激活架构,配备60层网络和256K上下文窗口,在未量化状态下可在单张80GB H100显卡运行,量化后支持消费级显卡部署。该版本在Arena AI开源排行榜中位列第三,展现出强大的性能优势。

另一款26B A4B MoE模型采用混合专家架构,总参数252亿但仅激活38亿,推理速度接近4B规模模型,性能却远超同级别竞品。该版本在开源排行榜中排名第六,特别适合延迟敏感型应用场景,实现了性能与效率的平衡。在代码生成领域,其Codeforces ELO评分从110跃升至2150,LiveCodeBench v6正确率从29.1%提升至80.0%,展现出显著的技术突破。

针对端侧设备优化的小模型组包含E4B和E2B两个版本。E4B拥有80亿总参数(45亿有效参数),E2B则配备51亿总参数(23亿有效参数),两者均搭载128K上下文窗口。E2B的内存占用可压缩至1.5GB以下,特别适合资源受限设备。这两款小模型集成音频编码器,支持语音识别与翻译功能,而大模型版本则专注于视觉与文本处理能力。

在数学能力方面,31B版本在AIME 2026竞赛测试中取得89.2%的正确率,较上代20.8%有质的飞跃。综合推理能力上,GPQA Diamond研究生级科学问答正确率从42.4%提升至84.3%,MMLU Pro得分达到85.2%。视觉处理短板得到显著改善,MMMU Pro多模态推理正确率提升至76.9%,MRCR v2长文档理解正确率从13.5%增至66.4%,多语言能力测试MMMLU得分达88.4%。

参数效率成为Gemma 4的突出优势。26B MoE版本性能与31B版本差距仅2-5个百分点,E4B以45亿有效参数达到接近上代27B版本的性能水平。全系列模型支持图像、视频输入及140多种语言处理,通过与Pixel、高通、联发科合作优化,E2B/E4B可在手机、树莓派等设备实现完全离线运行。

技术特性方面,Gemma 4全系列内置可开关的思考模式,开启后模型会先展示推理过程再给出最终答案,显著提升数学、逻辑等复杂任务的表现。模型原生支持函数调用和结构化JSON输出,可无缝对接外部工具与API。谷歌同步发布的开源Agent开发框架ADK,使端侧模型也能运行智能代理程序。在多模态处理上,支持可变分辨率图片和60秒内视频帧处理,视觉token预算可手动调节以平衡处理速度与精度。长文档处理采用混合注意力机制,在优化内存占用的同时保持处理效果。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version