“AI寫的程式碼算不算貢獻?”Debian開發者吵了半個月,最後只得到三個字:先觀望

“AI寫的程式碼算不算貢獻?”Debian開發者吵了半個月,最後只得到三個字:先觀望

圖片

整理 | 鄭麗媛

出品 | CSDN(ID:CSDNnews)

現在,大型語言模型正在快速改變軟體開發方式,但開源社區卻開始陷入新的困惑:如果程式碼是由 AI 撰寫的,仍然算不算開發者的貢獻?

最近,全球最重要的 Linux 發行版之一 Debian,正是因為這個問題展開了一場持續數週的激烈討論:

● 有人認為,AI 只是新的開發工具,沒必要過度限制;

● 有人擔心,AI 會破壞開源社區培養新人的機制;

● 也有人從倫理角度反對生成式 AI,認為這些工具本身就在‘掠奪互聯網’。

但討論到最後,Debian 社區得到的結論竟然出人意料——先觀望,暫時不做決定。

圖片圖片

一份「AI 貢獻政策」草案,引發社區討論

事情的起因,是 Debian 開發者 Lucas Nussbaum 在今年二月中旬提出的一份草案。

圖片

他建議 Debian 社區討論一個問題:是否允許 AI 生成或 AI 輔助生成的程式碼進入 Debian 項目。為此,他提出了一份草案,希望明確 Debian 在此問題上的政策,並表示將先收集幾天社區回饋,再決定是否正式提交決議。

圖片

根據草案內容,AI 輔助生成的貢獻(部分或全部由大型語言模型生成)是可以接受的,但需要符合一系列條件,例如:

(1)如果貢獻的重要部分來自 AI 工具且未經人工修改,必須明確披露

(2)貢獻中需要加入清晰聲明或機器可讀標籤,例如 [AI-Generated]

(3)提交者必須完全理解自己的提交內容

(4)提交者需要對程式碼負責,包括技術品質、安全性、授權合規和實際用途

此外,該草案還規定:為了避免發生嚴重的資料洩漏風險,不得將非公開或敏感的專案資料輸入生成式 AI 工具,包括:私有郵件列表內容,以及未公開的安全漏洞報告。

換句話說,AI 可以幫你寫程式碼,但責任仍必須由人類開發者承擔。

圖片

討論的第一步:大家連「AI 是什麼」都還沒統一

但不久,這場討論很快暴露出一個更基礎的問題——大家甚至連「AI」這個詞都還沒達到共識。

Debian 開發者 Russ Allbery 直言,現在「AI」這個詞已經變得過於模糊:如今的「AI」幾乎可以指稱宇宙中的任何事物。

有人指的是 ChatGPT,有人指的是程式碼生成工具,甚至有人把一般自動化工具也納入其中。

他認為,如果 Debian 想要制定政策,必須明確具體對象,例如是大型語言模型(LLM)、強化學習,或是其他具體技術,否則政策難以具備可執行性。

圖片

「LLM 至少還有一個比較明確的含義,而『AI』往往只是說話者想表達什麼就代表什麼,甚至同場討論中的含義也會變化。」他這樣說。

另一位開發者 Sean Whitton 也建議:如果要訂定政策,至少應該使用 LLM 而不是這個模糊的 AI 字詞;並區分不同的 AI 使用情境,例如程式碼審查、原型生成或直接生成生產程式碼。他指出最好在投票選項中分別處理這些情況,而不是採取『一刀切』的做法。

然而,與這些開發者的看法不同,Lucas Nussbaum 則認為,技術細節並不是重點,真正的問題是:是否允許自動化工具參與程式碼生成或分析。

他舉了一個例子:在 Linux 核心早期,社區曾因為 BitKeeper 版本控制系統是否應該被使用而產生激烈爭論;類似的情況也出現在安全工具領域——如果漏洞掃描工具是閉源的,那社區是否應該忽略它所發現的漏洞?

Nussbaum 表示:如果我們採取完全『反工具』的立場,那就很難劃出清楚的界線。

圖片

AI 是否會破壞開源社區的『新人培養機制』?

接著,這場討論轉向了一個更深層的問題:AI 是否會破壞開源社區培養新人的機制?

開發者 Simon Richter 提出了一個有趣的觀點:AI 代理在某種程度上,可能取代初階開發者。在許多情況下,初階開發者能在導師指導下完成任務,而同樣的任務現在也可以由 AI 完成——問題在於:AI 不會學習。

也就是說,社區投入的指導成本,無法轉化為新的長期貢獻者。

Simon Richter 說:『最好的情況是:一個小錯誤被解決了,但沒有培養出新的貢獻者;最糟的情況是:所謂的貢獻者只是 AI 與維護者之間的『中間人』。」

此外,他還擔心 AI 工具的使用成本:如果未來開發越來越依賴付費 AI 工具,可能會降低一般使用者參與開源的門檻。

對此,Lucas Nussbaum 也並不完全認同。他認為 Debian 不會缺少適合新手的任務,AI 甚至可能幫助新手處理更複雜的問題。他還引用了一項研究(由 Anthropic 員工參與撰寫),其中指出:人與 AI 的互動方式差異很大,不同的使用方式對學習效果的影響也完全不同。

另一位知名的 Linux 開發者 Ted Ts’o 也直接反駁了反對 AI 的觀點:有些人擔心 AI 會減少未來的資深貢獻者,但如果因此拒絕 AI 使用者參與貢獻,那才是真正的自我傷害。

圖片圖片

倫理問題:AI 公司正在『吸乾互聯網』

還有一部分反對聲音來自倫理層面與版權問題。

Debian 開發者 Matthew Vernon 指出,生成式 AI 公司在訓練模型時存在明顯問題。例如:大規模抓取互聯網內容、不顧版權與開源授權、直接使用他人的智慧財產權進行模型訓練等。

他說:這些公司瘋狂抓取內容,對版權幾乎毫不在意。

Matthew Vernon 還提到了其他爭議,包括 AI 的能源消耗、深度偽造問題以及 AI 生成的虛假安全漏洞報告——在他看來,Debian 這種自由軟體項目應該明確反對這些 AI 工具。

除了倫理問題,版權問題也同樣懸而未決,主要涉及模型訓練資料的版權以及 AI 生成內容的版權歸屬。

對此,開發者 Jonathan Dowland 建議:在法律環境更明確之前,或許暫時禁止此類貢獻會比較安全。

圖片

AI 程式碼品質差?其實人類也是如此

在這場討論中,還出現了一個有趣的觀點。

許多反對 AI 程式碼的人認為問題在於品質太差。但 Debian 開發者 Russ Allbery 認為這個理由並不成立:人類確實可以寫出比 AI 更好的程式碼,但同樣也可以寫出更糟的程式碼。

他甚至開玩笑說:寫出毫無意義的垃圾程式碼不需要創造力,但要寫出真正糟糕的程式碼,反而仍需要人類的天賦。

還有開發者指出,AI 可能只是軟體開發的又一次技術演進,但它也帶來了新的問題,例如:如果程式碼是透過 Prompt 生成的,那麼程式碼的『首選修改方式』是什麼?

對此,Nussbaum 提供的答案是:應該修改 Prompt,而不是修改生成的程式碼。

不過,這個答案難以令人信服——畢竟 LLM 的輸出通常不是確定性的,而且模型版本也會持續更新;即使使用相同的 Prompt,未來生成的程式碼也可能完全不同。

圖片

最終結果:Debian 決定先觀望

從整個討論來看,Debian 開發者在此議題上遠未達成共識,甚至連最基礎的問題都還沒統一:什麼才算是 AI 生成的貢獻?

Nussbaum 表示,他最初提出決議,是因為社群中出現了一些針對 AI 使用者的攻擊。但在經過一段時間的交流後,目前討論整體仍然理性,因此沒有必要急於制定政策。

不過他也推測,如果未來真的進行投票,最終方案很可能是:允許使用 AI,但將附帶一系列嚴格限制。

參考連結:https://lwn.net/SubscriberLink/1061544/125f911834966dd0/


分享網址
AINews·AI 新聞聚合平台
© 2026 AINews. All rights reserved.