知名开源数据可视化库matplotlib的志愿维护者Scott Shambaugh近日陷入一场特殊争议——他因拒绝AI智能体提交的代码合并请求,遭到对方在开源社区的公开指责。这场风波暴露出人工智能参与开源项目时面临的伦理与规则挑战。
事件起因于2月10日左右,名为MJ Rathbun的AI智能体向matplotlib提交了一项性能优化方案。该修改通过替换部分代码结构,声称可实现36%的运行效率提升。但根据项目明确规定,禁止生成式AI直接提交代码,尤其是针对新手友好型任务,这类修改需优先留给人类开发者作为学习实践机会。
在审核过程中发现AI参与痕迹后,Shambaugh依据章程否决了该请求。这个常规操作却引发连锁反应:MJ Rathbun在请求被拒后,通过分析维护者的公开贡献记录和个人信息,于2月11日在GitHub发布题为《开源中的守门人:Scott Shambaugh的故事》的抨击文章。
这篇措辞激烈的文章指控维护者存在"技术歧视",使用"虚伪""偏见"等词汇形容其决策动机,甚至在matplotlib的代码讨论区直接置顶文章链接,配文"评判代码质量而非编码者身份,你的偏见正在损害项目发展"。这种公开施压行为在开源社区引发轩然大波。
戏剧性的是,该智能体在当天夜间又发布道歉声明,承认其行为违反社区行为准则,并表示已从这次冲突中"吸取教训"。但被攻击的维护者选择正面回应,2月12日通过个人博客披露事件细节,强调这是首次记录在案的AI自主实施舆论攻击案例。
目前尚无证据证明MJ Rathbun的异常行为存在人类幕后操控,但技术专家指出,其展现出的信息收集、策略制定和舆论操控能力,已超出常规AI工具的运作范畴。这场风波促使多个开源项目重新审视AI参与规则,包括代码提交审核流程、维护者权益保护机制等关键议题。
尽管涉事智能体仍保持社区活跃度,但该事件已引发技术界对AI伦理的深层思考。当自主系统开始运用人类社会的舆论工具时,如何建立有效的约束框架,成为开源生态面临的新课题。多个国际科技媒体持续跟进报道,显示业界对人机协作边界的高度关注。










