ITBear旗下自媒体矩阵:

Arcee发布全新Trinity开源模型家族:重塑美国开源AI

   时间:2025-12-02 14:42:20 来源:鞭牛士编辑:快讯 IP:北京 发表评论无障碍通道
 

12月2日消息,位于美国的AI初创公司Arcee AI今天宣布推出Trinity系列的前两款模型——Trinity Mini与Trinity Nano Preview。它们均为开源权重Mixture-of-Experts(MoE)架构模型,在美国本土基础设施从零开始训练,并采用企业友好的Apache 2.0协议。

开发者可立即通过Hugging Face、chat.arcee.ai和OpenRouter获取模型权重、部署或修改,并支持商业使用、微调和自托管。

Arcee 的 CTO Lucas Atkins坦言:“我们想补齐美国开源AI版图中缺失的那一块。”

2025年,阿里千问、DeepSeek等中国公司接管了开源权重前沿,推出多个大规模MoE模型。

而Arcee这次选择了从底层重构路线:流程全线自主,开展完整预训练,以长上下文、推理性能和本地化企业部署为核心目标,尝试追赶中国的步伐。

Trinity Mini为26B参数MoE模型,Trinity Nano为6B模型。尽管规模不及OpenAI、Qwen或DeepSeek的旗舰版本,但基准测试显示,它们在推理与函数调用能力上表现接近甚至超过更大的同类开源模型。其第三款模型 Trinity Large(420B参数)已在训练中,预计2026年1月发布。

Arcee为Trinity打造了新的Attention-First Mixture-of-Experts(AFMoE)架构,通过改进路由机制、注意力分配以及稀疏化方式,实现了模型稳定性与吞吐效率的平衡:

128 Experts,8 active per token

131K上下文窗口支持

200+ tokens/s实时生成速度

sub-3s端到端响应延迟

官方称,Trinity Mini在MMLU Zero-shot、BFCL V3等测试中表现强劲,能够为企业级工具调用、代码与数学推理场景提供支持。

Arcee AI 的数据与训练基础设施来自两个关键合作伙伴:

DatologyAI:负责构建10T高质量训练语料,以及Trinity Large的20T数据集(合成 + web精筛)

Prime Intellect:提供美国境内GPU集群与训练堆栈,包括512 H200和2048 B300集群

与许多开源模型依托海外资源训练不同,Trinity强调的是本地算力、本地数据和可审计的供应链。Arcee认为下一代企业AI不只是模型性能竞赛,而是模型主权(Model Sovereignty),即拥有训练流程与数据;可审计、可控制、可本地部署;不依赖闭源生态与海外供应链,这与传统“基于别人的基础模型做微调”的方式形成了鲜明对比。

Trinity Large将于明年1月上线,一旦成功,它将成为少数真正全栈美国本土训练的开源权重超大模型之一,或将给千问,DeepSeek等公司带来压力。(鞭牛士、AI普瑞斯编译)

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version