人工智能领域迎来一项重要进展,OpenAI近日开源了一款名为Circuit-Sparsity的新型模型。该模型采用独特的稀疏架构设计,参数量仅为0.4B,其中99.9%的权重被强制置零,仅保留0.1%的关键连接。这项技术突破为解决大语言模型"黑箱"问题提供了全新思路,在医疗、金融等需要高透明度的领域具有潜在应用价值。
传统Transformer模型存在显著的不可解释性缺陷。在密集型网络中,单个神经元往往需要同时处理多个语义概念,这种"概念纠缠"现象导致模型决策过程难以追溯。OpenAI研究团队通过反向思维,构建了权重高度稀疏的神经网络架构。实验数据显示,新模型在处理字符串闭合等任务时,仅需12个神经元即可形成完整计算路径,相比传统模型缩减了16倍规模。神经元激活模式呈现出明确的语义特征,部分神经元专门检测引号符号,另一些则像计数器般追踪嵌套层级。
该技术通过三项核心创新实现突破:动态剪枝机制在训练过程中持续优化连接结构,每轮迭代仅保留绝对值最大的权重;激活稀疏化策略在注意力机制等关键模块强制保留前25%的激活值;架构层面用RMSNorm替代传统归一化方法,并引入Bigram表处理简单模式匹配。这些改进共同确保了模型在极端稀疏条件下仍能维持基础性能。
<国际学术社区对这项研究反应热烈。部分学者认为该技术将颠覆现有混合专家模型(MoE)的设计范式,通过直接构建稀疏结构避免了权重分配的近似计算。但也有观点指出,稀疏模型的训练成本较密集模型高出2-3个数量级,当前运算速度存在100-1000倍的差距。这种效率瓶颈使其难以直接应用于千亿参数级大模型。
针对计算效率难题,研究团队提出了"桥梁网络"解决方案。该方案在稀疏模型与预训练密集模型之间建立编码-解码映射,通过跨模型干预机制实现特征扰动传递。这种设计允许研究人员在透明模型上修改特定特征,再将变化映射回复杂模型,为现有大模型提供可解释性编辑能力。实验表明,稀疏度与模型性能存在制衡关系,在固定规模下提升稀疏性虽会降低准确率,但能显著增强决策可追溯性。
开源代码已在GitHub和Hugging Face平台同步发布,包含完整的训练框架与基准测试工具包。研究团队在技术文档中强调,当前工作仍处于早期探索阶段,后续将聚焦两大方向:开发从密集模型提取稀疏电路的技术路径,以及优化稀疏训练算法效率。这项研究为理解神经网络内部运作机制开辟了新维度,其提出的稀疏化设计范式或将重新定义人工智能的可解释性标准。











