编程领域知名开发者卡帕西近日推出了一款名为“大模型议会”的Web应用,该应用通过创新机制让多个大语言模型协同工作,引发技术社区广泛关注。与传统单一模型对话界面不同,这个系统采用类似议会制的架构,在用户提交问题后,会同时激活多个大模型进行集体讨论。
系统运行流程分为三个核心环节:首先通过OpenRouter中间层同步调用GPT-5.1、Gemini 3 Pro Preview、Claude Sonnet 4.5和Grok-4等主流模型,所有回复以标签页形式并列展示;接着进入匿名互评阶段,每个模型会收到其他参与者的回答,在隐藏身份信息的情况下,依据准确性和洞察力进行评分并给出详细理由;最终由指定主席模型整合所有评价,形成综合答案返回给用户。
这种设计不仅实现了模型间的横向对比,更完整呈现了人工智能的决策过程。开发者特别强调,匿名机制有效避免了模型间的偏袒行为,测试数据显示模型在互评时表现出较高客观性,多数情况下能承认自身不足。例如在某次测试中,尽管GPT-5.1被多数模型评为最佳答案,但仍有模型指出其结构松散的问题。
该项目的GitHub仓库上线后迅速获得1.8k星标,技术社区出现多种创新应用场景。有开发者提出将这种自评估机制发展为新型自动评测基准,通过模型间的交叉验证提升评估可靠性。畅销技术书籍作者在体验后认为,这种多模型协作模式可能重塑人工智能产品的开发范式,特别是在需要综合判断的复杂任务领域。
实际测试中,不同模型展现出鲜明个性特征。GPT-5.1以内容丰富见长但结构欠佳,Gemini 3的回答更为凝练,Claude的输出则相对简略。值得注意的是,尽管模型互评结果与人类主观判断存在差异,但这种差异本身提供了新的研究视角——通过分析模型评价标准与人类认知的偏差,可能发现现有评估体系的盲点。
项目文档显示,该系统源于开发者此前提出的“分阶段深度阅读”方法论。该方法将传统阅读流程改造为三步协作:人类先进行整体感知,再由模型解析结构,最后通过追问深化理解。新系统在此基础上增加模型议会机制,使协作过程更具透明度。开发者透露,未来计划引入更多模型参与讨论,并优化评分算法以提升决策质量。
技术实现层面,系统采用模块化设计,支持灵活替换底层模型。开发者在代码注释中特别说明,任何符合OpenAI API规范的模型都可接入议会机制。这种开放性设计降低了技术门槛,已有多个衍生项目开始探索不同模型组合的效果差异。社区讨论焦点集中在如何平衡模型数量与决策效率,以及如何设计更精细的评分维度等问题上。











