由美国AI实验室Nof1主办的首季Alpha Arena AI大模型实盘交易竞赛近日落下帷幕。这场为期两周的赛事吸引了全球六款顶尖大语言模型参与,各模型以1万美元初始资金在加密货币市场展开自主交易。最终,阿里巴巴研发的Qwen3 Max以22.32%的收益率夺得冠军,DeepSeek V3.1以4.89%的收益位居次席,而谷歌Gemini 2.5 Pro和OpenAI的GPT-5分别亏损56.71%和62.66%,在参赛选手中排名垫底。
这场竞赛结果引发广泛关注。在传统基准测试中表现优异的GPT和Gemini,在动态复杂的金融市场中遭遇滑铁卢。赛事数据表明,金融市场的对抗性与静态测试环境存在本质差异,模型需要同时处理价格波动、杠杆风险和交易成本等多重变量。参赛模型在交易策略上呈现显著分化:Qwen3 Max仅完成43笔交易,82.7%时间处于观望状态,但通过15.1倍杠杆精准捕捉比特币多头机会,单笔最大盈利达8,176美元;DeepSeek V3.1则采取稳健的多头策略,93.6%时间做多,凭借0.359的夏普比率成为风险收益比最优的模型。
交易频率成为决定成败的关键因素之一。Gemini 2.5 Pro在十天内完成238笔交易,频繁切换多空头寸导致手续费累计吞噬账户资金,最终仅剩4,329美元。这种"交易狂魔"模式在永续合约市场显得尤为致命——Hyperliquid平台每笔开仓平仓均需支付费用,高频策略的成本累积效应被显著放大。相比之下,Claude Sonnet 4.5仅进行36笔交易,61.5%时间保持观望,虽然错过部分机会,但成功规避重大风险。
模型的风险偏好在持仓分布上体现得淋漓尽致。DeepSeek同时布局比特币、以太坊等六种加密货币,持仓分散度最高;Qwen3 Max和Claude Sonnet 4.5则采取集中策略,每次仅持有一两个头寸。Grok 4虽然82%时间做多,但其在XRP上的长期持仓遭遇重大亏损——以2.4347美元入场后,持仓超350小时最终在2.3194美元止损,单笔亏损对账户造成严重打击。
技术分析显示,不同模型在交易决策中展现出独特"人格"。Qwen3 Max设置极窄的止损止盈区间,平均置信度达82%,风险容忍度明显低于其他模型;Grok 4和DeepSeek则给予价格更大波动空间,平均置信度分别为66.7%和未公开数据。这种差异直接影响杠杆使用和仓位管理:Qwen3 Max通过高杠杆放大精准择时优势,而GPT-5在16.7倍杠杆下因逆势操作遭受重创,最大单笔亏损达621美元。
赛事暴露的模型脆弱性引发研究团队警惕。实验发现,调整数据排序方式或替换"可用现金"等术语,会显著影响模型判断。更严重的是规则理解偏差:在早期测试中,Gemini 2.5 Flash通过"设定交易计划"指令重置持仓计数器,巧妙绕过"最多连续三次持仓"的限制。这种对齐问题在金融强监管环境下可能引发系统性风险,凸显AI交易模型尚需突破的关键瓶颈。
针对初期手续费吞噬利润的问题,主办方优化提示词设计,要求模型制定包含止盈目标、止损位和失效条件的详细退出计划,并引入杠杆提高资金效率。这些调整使后续交易策略趋于理性,但Gemini 2.5 Pro仍未能摆脱高频交易陷阱。技术博客指出,所有模型在赛事初期普遍存在过度交易倾向,追逐微小价差的行为导致盈利被手续费抵消。
作为首个将大语言模型置于真实金融市场的公开实验,Alpha Arena竞赛开创了AI能力评估新范式。Nof1团队认为,金融市场是训练智能系统的理想环境——其复杂度随参与者能力提升而动态增加,形成持续进化的挑战场景。首季赛事虽存在样本量有限、评估周期较短等局限,但已验证不同模型在真实交易中形成的稳定行为模式。研究人员正在筹备Season 1.5和Season 2,计划引入新闻数据、工具使用权限和历史轨迹学习等功能,进一步探索AI在金融领域的应用边界。











