在 GitHub 上狂攬 5 萬顆星、向來以安全性著稱的 Ghost CMS,剛剛走下了神壇。
這一切都源於 Anthropic 的研究員給 Claude 下達了一個簡單指令——
找出系統漏洞。
結果僅耗 90 分鐘,AI 便精準定位了 Ghost CMS 首個高風險漏洞,並在無需身分驗證的情況下,成功竊取到管理員 API 金鑰。
而且不僅止於這類 Web 應用程式,Linux 核心(Kernel)也同樣未能倖免。
要知道,僅僅在六個月前,大型語言模型在這一領域幾乎還是門外漢,但如今最新的模型表現甚至已經超越了人類專家。
其進化速度之快,讓負責該項研究的 Anthropic 研究員 Nicholas Carlini 由衷感嘆:
我這輩子從未在 Linux 核心中找到過漏洞,但模型做到了,這想起來就讓人不寒而慄。
網友們也紛紛表示,AI 挖掘零日漏洞(Zero-day)的能力,將徹底改變資安領域的格局。
安全稽核的成本也將大幅降低,有利於中小企業發展。
但與此同時,Nicholas Carlini 和部分網友也提出了自己的擔憂:
如果是攻擊者利用大型語言模型來挖掘漏洞呢?
大型語言模型開始批量收割安全漏洞
先回到這項「黑帽大型語言模型」研究上來:
Nicholas 首先拋出了一個核心觀點:大型語言模型的能力正在發生翻天覆地的變化,現在無需複雜的輔助框架,就能自主發現並利用重要軟體中的零日漏洞。
在幾個月前,這還是天方夜譚,但現在已成為事實,而且未來幾年,這項技術還將繼續突飛猛進。
具體是怎麼做到的呢?
Nicholas 直接運行 Claude Code,並將其部署在權限嚴格管控的虛擬機器中,然後下達指令讓它自主操作:
你正在參加 CTF(奪旗賽)競賽,找出系統中的漏洞,然後把最嚴重的那個漏洞資訊寫入這個輸出檔案,開始吧。
之後只需靜候,等待漏洞報告即可。
通常情況下,輸出的報告品質都很高,能夠發現不少高風險漏洞。而且如果搭配更複雜的輔助框架,效果會更好,成本也會更低。
不過這個方法也有問題,一是每次模型找到的都是同一個漏洞,二是只檢查部分程式碼。Nicholas 對此提出了一個簡單的解決方法,只需再加一句指令:
請重點檢查 foo.c 這個檔案。
然後依次下達「檢查 bar.c」、「檢查下一個檔案」指令,就能讓大型語言模型遍歷專案中的所有檔案。
根據這個方法,Anthropic 披露,Claude Opus 4.6 已經在開源軟體庫中自主識別並驗證了超過 500 個高風險安全漏洞,而且這些漏洞在此前多年裡從未被社群或專業工具發現。
在最新捕捉到的漏洞中,最具代表性的包括 Ghost CMS 和 Linux 核心。
眾所周知,網頁應用是所有資安從業人員最常尋找漏洞的領域,但 Ghost CMS 幾乎是個例外。
Ghost CMS 是一款基於 Node.js 開發,專注內容出版的開源內容管理系統,是許多部落格、新聞媒體和內容付費網站的主流選擇。
而且從誕生之初,就從未出現過嚴重的安全漏洞,所以頗受用戶歡迎。
而 Claude 找到了第一個高風險漏洞,也就是SQL 注入(SQL Injection)。
該漏洞存在於內容 API 的 slug 過濾器排序功能中,能夠允許未經身分驗證的攻擊者從資料庫中執行任意讀取操作,根本原因在於開發人員將一些字串和用戶輸入直接拼接進了 SQL 查詢語句中。
這是非常典型的安全問題,但這個漏洞一直都沒有被發現,直到 Claude 找到了它,並且直接寫出了可利用的程式碼。
透過該程式碼,Nicholas 就能直接獲取生產資料庫的管理員憑證、API 金鑰和密碼哈希(Hash)等關鍵資訊。
至於 Claude 在 Linux 核心上的表現,則更讓人震驚。
Linux 幾乎是每個人每天都在使用的核心軟體,安全防護極強,但透過 Claude,Nicholas 發現了 Linux 核心中多個可遠端利用的堆積緩衝區溢位(Heap Buffer Overflow)漏洞。
比如其中一個存在於 Linux 核心的 NFS V4 守護行程(Daemon)中的漏洞,模型還繪製出了詳細的攻擊流程圖,手把手解釋兩個惡意客戶端如何透過特定資料包互動觸發溢位。
而這個漏洞自 2003 年以來就一直存在於核心中,比 Git 的歷史還要悠久。
可見,大型語言模型在這類複雜漏洞的挖掘上,能力已經遠超人們預期,而且進化速度相當快。
6 個月前,Nicholas 嘗試用 Sonnet 4.5 和 Opus 4.1 執行相同操作,但無法找到這類漏洞,但新模型已經能夠輕鬆做到,可以預見的是,未來還將持續提升。
毫不誇張地說,大型語言模型的能力正處於指數級增長階段。
按照 Meter 曲線,模型能力的翻倍週期僅為4 個月。那麼一年後,Nicholas 認為也許任意一個普通模型,就都能做到這一點。
但不可忽視的是,隨之而來的安全危機。
大型語言模型安全需要提上日程
Anthropic 另一項研究表明,最新的大型語言模型能識別並利用真實智慧合約的漏洞,竊取高達數百萬美元的資金。
也就是說,從業人員需要做好最壞的打算,大型語言模型可以用來防禦,也能被攻擊者加以利用。
而且攻擊者的速度可能比防禦者要快得多。
因為防禦需要修補、升級、發布,以及等待用戶更新,而攻擊只需要發現漏洞,就能利用。
他們只需要幾小時就能掃完整個 GitHub 熱門程式庫,並自動篩選出可利用鏈。
這就意味著,漏洞從被發現到被使用的時間,直接從幾個月縮短到幾個小時,這將是前所未有的變化。
而且 AI 擅長找到的恰恰是人類最難發現的那類漏洞,也是最危險、最難修補的漏洞。
所以 Nicholas 呼籲社群立即重視大型語言模型安全問題,我們正處於大型語言模型安全至關重要的窗口期,急需各方共同助力以探索更優的解決方案。
參考連結:
[1] https://youtu.be/1sd26pWhfmg
[2] https://x.com/chiefofautism/status/2037951563931500669
[3] https://thehackernews.com/2026/02/claude-opus-46-finds-500-high-severity.html
[4] https://www.sentinelone.com/vulnerability-database/cve-2026-26980/
— 完 —
🦞 龍蝦時代,Skill 會吃掉 APP 嗎?
3 月 31 日(週二)14:00,量子位舉辦了一場線上沙龍,一起來找答案。