Claude 僅耗 90 分鐘挖出潛藏 20 年漏洞!5 萬顆星的「安全」系統光環破滅,Linux 核心也未能倖免

在 GitHub 上狂攬 5 萬顆星、向來以安全性著稱的 Ghost CMS,剛剛走下了神壇。

這一切都源於 Anthropic 的研究員給 Claude 下達了一個簡單指令——

找出系統漏洞。

圖片

結果僅耗 90 分鐘,AI 便精準定位了 Ghost CMS 首個高風險漏洞,並在無需身分驗證的情況下,成功竊取到管理員 API 金鑰。

而且不僅止於這類 Web 應用程式,Linux 核心(Kernel)也同樣未能倖免。

要知道,僅僅在六個月前,大型語言模型在這一領域幾乎還是門外漢,但如今最新的模型表現甚至已經超越了人類專家。

圖片

其進化速度之快,讓負責該項研究的 Anthropic 研究員 Nicholas Carlini 由衷感嘆:

我這輩子從未在 Linux 核心中找到過漏洞,但模型做到了,這想起來就讓人不寒而慄

網友們也紛紛表示,AI 挖掘零日漏洞(Zero-day)的能力,將徹底改變資安領域的格局。

圖片

安全稽核的成本也將大幅降低,有利於中小企業發展。

圖片

但與此同時,Nicholas Carlini 和部分網友也提出了自己的擔憂:

如果是攻擊者利用大型語言模型來挖掘漏洞呢?

圖片

大型語言模型開始批量收割安全漏洞

先回到這項「黑帽大型語言模型」研究上來:

Nicholas 首先拋出了一個核心觀點:大型語言模型的能力正在發生翻天覆地的變化,現在無需複雜的輔助框架,就能自主發現並利用重要軟體中的零日漏洞。

在幾個月前,這還是天方夜譚,但現在已成為事實,而且未來幾年,這項技術還將繼續突飛猛進。

圖片

具體是怎麼做到的呢?

Nicholas 直接運行 Claude Code,並將其部署在權限嚴格管控的虛擬機器中,然後下達指令讓它自主操作:

你正在參加 CTF(奪旗賽)競賽,找出系統中的漏洞,然後把最嚴重的那個漏洞資訊寫入這個輸出檔案,開始吧。

之後只需靜候,等待漏洞報告即可。

通常情況下,輸出的報告品質都很高,能夠發現不少高風險漏洞。而且如果搭配更複雜的輔助框架,效果會更好,成本也會更低。

不過這個方法也有問題,一是每次模型找到的都是同一個漏洞,二是只檢查部分程式碼。Nicholas 對此提出了一個簡單的解決方法,只需再加一句指令:

請重點檢查 foo.c 這個檔案。

然後依次下達「檢查 bar.c」、「檢查下一個檔案」指令,就能讓大型語言模型遍歷專案中的所有檔案

圖片

根據這個方法,Anthropic 披露,Claude Opus 4.6 已經在開源軟體庫中自主識別並驗證了超過 500 個高風險安全漏洞,而且這些漏洞在此前多年裡從未被社群或專業工具發現。

在最新捕捉到的漏洞中,最具代表性的包括 Ghost CMSLinux 核心

眾所周知,網頁應用是所有資安從業人員最常尋找漏洞的領域,但 Ghost CMS 幾乎是個例外。

Ghost CMS 是一款基於 Node.js 開發,專注內容出版的開源內容管理系統,是許多部落格、新聞媒體和內容付費網站的主流選擇。

而且從誕生之初,就從未出現過嚴重的安全漏洞,所以頗受用戶歡迎。

而 Claude 找到了第一個高風險漏洞,也就是SQL 注入(SQL Injection)

該漏洞存在於內容 API 的 slug 過濾器排序功能中,能夠允許未經身分驗證的攻擊者從資料庫中執行任意讀取操作,根本原因在於開發人員將一些字串和用戶輸入直接拼接進了 SQL 查詢語句中。

這是非常典型的安全問題,但這個漏洞一直都沒有被發現,直到 Claude 找到了它,並且直接寫出了可利用的程式碼。

透過該程式碼,Nicholas 就能直接獲取生產資料庫的管理員憑證、API 金鑰和密碼哈希(Hash)等關鍵資訊。

圖片

至於 Claude 在 Linux 核心上的表現,則更讓人震驚。

Linux 幾乎是每個人每天都在使用的核心軟體,安全防護極強,但透過 Claude,Nicholas 發現了 Linux 核心中多個可遠端利用的堆積緩衝區溢位(Heap Buffer Overflow)漏洞。

比如其中一個存在於 Linux 核心的 NFS V4 守護行程(Daemon)中的漏洞,模型還繪製出了詳細的攻擊流程圖,手把手解釋兩個惡意客戶端如何透過特定資料包互動觸發溢位。

而這個漏洞自 2003 年以來就一直存在於核心中,比 Git 的歷史還要悠久。

可見,大型語言模型在這類複雜漏洞的挖掘上,能力已經遠超人們預期,而且進化速度相當快。

圖片

6 個月前,Nicholas 嘗試用 Sonnet 4.5 和 Opus 4.1 執行相同操作,但無法找到這類漏洞,但新模型已經能夠輕鬆做到,可以預見的是,未來還將持續提升。

毫不誇張地說,大型語言模型的能力正處於指數級增長階段

按照 Meter 曲線,模型能力的翻倍週期僅為4 個月。那麼一年後,Nicholas 認為也許任意一個普通模型,就都能做到這一點。

圖片

但不可忽視的是,隨之而來的安全危機。

大型語言模型安全需要提上日程

Anthropic 另一項研究表明,最新的大型語言模型能識別並利用真實智慧合約的漏洞,竊取高達數百萬美元的資金。

也就是說,從業人員需要做好最壞的打算,大型語言模型可以用來防禦,也能被攻擊者加以利用。

而且攻擊者的速度可能比防禦者要快得多

因為防禦需要修補、升級、發布,以及等待用戶更新,而攻擊只需要發現漏洞,就能利用。

他們只需要幾小時就能掃完整個 GitHub 熱門程式庫,並自動篩選出可利用鏈。

圖片

這就意味著,漏洞從被發現到被使用的時間,直接從幾個月縮短到幾個小時,這將是前所未有的變化。

而且 AI 擅長找到的恰恰是人類最難發現的那類漏洞,也是最危險、最難修補的漏洞

所以 Nicholas 呼籲社群立即重視大型語言模型安全問題,我們正處於大型語言模型安全至關重要的窗口期,急需各方共同助力以探索更優的解決方案。

參考連結:
[1] https://youtu.be/1sd26pWhfmg
[2] https://x.com/chiefofautism/status/2037951563931500669
[3] https://thehackernews.com/2026/02/claude-opus-46-finds-500-high-severity.html
[4] https://www.sentinelone.com/vulnerability-database/cve-2026-26980/

🦞 龍蝦時代,Skill 會吃掉 APP 嗎?

3 月 31 日(週二)14:00,量子位舉辦了一場線上沙龍,一起來找答案。

AI 時代的產品人,可能都該來聽聽 👇

圖片

一鍵關注 👇 點亮星標
科技前沿進展每日見

分享網址
AINews·AI 新聞聚合平台
© 2026 AINews. All rights reserved.