近日,Linux 内核维护团队正式发布了针对 AI 生成代码的使用准则,允许开发者在编程中使用 GitHub Copilot 等 AI 辅助工具。然而,所有由于代码问题导致的 Bug 或安全隐患,最终都需由提交代码的开发者自行承担责任。

代码 互联网 电脑

这一政策的出台经过了几个月的讨论,开源社区内对于 AI 工具的争议逐渐升温。在今年 1 月份,英特尔工程师 Dave Hansen 和甲骨文员工 Lorenzo Stoakes 就是否应该严格限制 AI 工具的使用展开了激烈的争论。最终,Linux 创始人 Linus Torvalds 表示,全面禁止 AI 工具的做法毫无意义,认为 AI 只是一种工具。

Linus Torvalds 强调,提交不合格代码的开发者本身就不太可能遵守规则,因此与其限制开发者使用的工具,不如直接追究代码提交者的责任。这一立场与一些开源社区对于 AI 的强烈反对形成了鲜明对比。

在这一政策出台之前,各大开源项目对待 AI 生成代码的态度不尽相同。例如,NetBSD 和 Gentoo 明确禁止 AI 生成代码,认为大模型的生成内容在法律上属于 “污染”,因为其训练数据的版权来源并不明确。此外,原创声明(DCO)也成为争议焦点,要求开发者确保提交代码的所有权,但 AI 模型训练时使用的代码常常受 GPL 等许可证的限制,这让开发者难以保证 AI 生成代码的合法性。

与此同时,开源社区的维护者们每天都要处理大量 AI 生成的低质量代码,像 cURL 就被不合格代码淹没,被迫关闭漏洞奖励计划。Node.js 和 OCaml 也面临着上万行 AI 补丁的内部争议。

Linux 维护团队的新规不但允许使用 AI 工具,还要求开发者明确标示代码是否由 AI 生成,将失误的责任明确归属到人类开发者。这一举措是为了确保在利用 AI 工具时,仍然能够对代码质量和安全性负责。

划重点:

🌟 允许使用 AI 编程工具:Linux 内核团队正式允许使用 GitHub Copilot 等 AI 辅助工具。

⚠️ 开发者需担责:所有由于代码问题引起的 Bug 和安全隐患由提交者负责。

📝 强调透明度:开发者必须标明代码是否由 AI 生成,确保对代码质量的责任。