Linux内核维护团队近日发布新规,明确允许开发者在编程过程中使用GitHub Copilot等人工智能辅助工具。不过,新规同时强调,因代码缺陷引发的任何漏洞或安全风险,最终责任将由代码提交者自行承担。这一决策标志着开源社区对AI工具的态度正从争议走向规范化管理。
围绕AI生成代码的争议在开源领域已持续数月。今年初,英特尔工程师Dave Hansen与甲骨文员工Lorenzo Stoakes曾就限制AI工具使用展开激烈辩论。Linux创始人Linus Torvalds最终表态称,全面禁止AI工具缺乏实际意义,强调其本质仍是辅助开发的工具。他指出,真正需要关注的是代码质量本身,而非开发者使用的工具类型。
此前,不同开源项目对AI生成代码的态度存在显著分歧。NetBSD和Gentoo等项目明确禁止此类代码,认为大模型训练数据的版权归属不明确,可能构成法律层面的"代码污染"。开发者签署原创声明(DCO)时需确保代码所有权,但AI训练过程中涉及的GPL等开源协议代码,使得合法性难以完全保障。这种矛盾导致多个项目陷入两难境地。
实际开发中,AI生成代码的质量问题已给维护者带来沉重负担。cURL项目因收到大量低质量AI代码,不得不暂停漏洞奖励计划;Node.js和OCaml等项目则面临数万行AI生成补丁的内部审查争议。这些案例暴露出,缺乏规范的AI工具使用正对开源生态造成实质性冲击。
新规要求开发者在使用AI工具时必须明确标注代码生成方式,将质量责任落实到具体个人。这种设计既保留了AI工具的生产力价值,又通过责任追溯机制维护了代码安全标准。维护团队表示,此举旨在建立"工具使用自由"与"质量管控"之间的平衡,避免技术进步与安全保障产生冲突。
核心要点: - 工具使用权限:Linux内核项目正式开放GitHub Copilot等AI编程工具 - 责任界定原则:代码缺陷引发的所有问题由提交者承担最终责任 - 透明度要求:开发者需明确披露代码是否由AI生成 - 管理目标:在利用技术红利的同时确保开源代码质量标准











