AIPress.com.cn报道
1月16日,谷歌正式发布了TranslateGemma,这是一套基于 Gemma 3 构建的全新开源翻译模型系列。该系列包含4B、12B 和 27B三种参数规格,旨在通过极高的效率和精准度,打破全球 55 种语言之间的沟通障碍。
技术评估中最惊人的发现是其效率。通过特殊的训练工艺,12B 版本的 TranslateGemma 在性能上竟然超越了 27B 的 Gemma 3 基线模型(基于 MetricX 指标)。
这意味着开发者可以用不到一半的算力资源,获得同等甚至更好的翻译质量。即便是最小的4B 模型,其实力也足以匹敌更大的 12B 基线模型,非常适合在手机等移动设备上运行。
为什么能做到这一点?谷歌采用了一种“两阶段微调”工艺,将顶尖大模型 Gemini 的“直觉”蒸馏到了这些小模型中:
监督微调(SFT):使用大量人类翻译文本和 Gemini 生成的高质量合成数据进行训练。
强化学习(RL):利用 MetricX-QE 等高级奖励模型,指导模型生成更自然、更准确的翻译。
TranslateGemma 不仅精通 55 种核心语言(包括中文),还继承了 Gemma 3 的多模态能力。测试显示,即便没有专门针对图像进行微调,它在图片内文字翻译(如 Vistra 基准)上的表现也随文本翻译能力的提升而增强。
目前,这些模型已在 Kaggle、Hugging Face 和 Vertex AI 上开放下载和部署。











