席捲記憶體概念股、市值蒸發 900 億美元的谷歌 AI 論文,竟涉學術造假

圖片

編輯|澤南、楊文

誰也沒想到,這場大規模的市場震盪,竟牽扯出一樁學術界的大醜聞。

本週五晚間,谷歌(Google)的學術不端事件成為人工智慧(AI)領域的焦點。

來自瑞士蘇黎世聯邦理工學院(ETH Zurich)的博士後研究員高健揚發表文章指出,Google Research 的論文〈TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate〉中,關於既有 RaBitQ 向量量化演算法的描述、理論結果比對以及實驗對照,均存在嚴重問題。且相關問題早在論文投稿前便已被明確指出,卻遭作者方刻意忽視。

圖片

作為一門能撼動眾多「主線」邏輯公司的 AI 研究,TurboQuant 在業界的含金量看似毋庸置疑。然而誰能料到,這篇被谷歌捧上神壇、擁有千萬級曝光量的 ICLR 頂尖會議論文,其最核心的技術底層竟深陷「抄襲」疑雲。

引發記憶體股震盪的 TurboQuant

谷歌的 TurboQuant 論文近期在 AI 研究領域外也引起轟動。這篇獲全球 AI 研究頂尖會議 ICLR 2026 收錄的論文,介紹了一種壓縮演算法,宣稱能將大型語言模型(LLM)的 KV 快取(KV Cache)記憶體佔用減少至少 6 倍,速度提升高達 8 倍,且精度零損耗。

TurboQuant 於 2025 年 4 月公開於預印本論文平台 arXiv,2026 年 1 月獲 ICLR 2026 收錄,並於 3 月 24 日經谷歌研究部落格介紹後引發巨大迴響。

圖片

谷歌在 X 平台上的宣傳貼文瀏覽量已達上千萬次。

在 AI 大模型進行推理時,每次生成新詞彙都需「回顧」對話歷史(上下文),這些內容儲存於 KV 快取中。因此,KV 快取佔用的記憶體往往成為限制大模型速度與成本的最大瓶頸。TurboQuant 提出的極限無損壓縮方法效果驚人,由於能大幅降低運行大模型所需的硬體資源,直接衝擊了市場對記憶體晶片爆發性成長的預期。

在谷歌部落格發布當天才,美國記憶體股集體暴跌,閃迪(SanDisk)一度下跌 6.5%,希捷科技(Seagate Technology)跌幅超過 5%,威騰電子(Western Digital)跌逾 4%,美光科技(Micron Technology)下跌 4%。市場單日蒸發的市值超過 900 億美元。

圖片

這項被谷歌大肆宣揚的技術究竟如何達成?簡言之,它用一套精妙的方法解開了記憶體消耗的癥結。

TurboQuant 透過兩階段壓縮達成目標:第一階段利用「隨機旋轉」與 PolarQuant 機制將高維向量映射至極座標,實現極限壓縮;第二階段則利用量化 Johnson-Lindenstrauss (QJL) 變換,僅用 1 bit 的空間來修正內積計算的偏差。

然而,正是這部分技術,成為引爆學術醜聞的導火線。

ETH Zurich 的高健揚博士列舉證據指出,這項被谷歌宣傳為「革命性」的核心機制並非谷歌首創,早在兩年前就已由其團隊完整提出。

更令人憤慨的是,谷歌在其論文中刻意「迴避」並「淡化」了先行技術。

RaBitQ 作者公開質疑:TurboQuant 的核心方法,兩年前就有

RaBitQ 系列論文於 2024 年發表,提出了一種高維向量量化方法,並從理論上證明其達到了理論電腦科學頂尖會議論文給出的漸近最优誤差界。

RaBitQ 及其擴展版分別發表於頂尖會議 SIGMOD 2024 與 SIGMOD 2025。

圖片

RaBitQ 的核心思路之一,是在量化前對輸入向量施加隨機旋轉(random rotation / Johnson-Lindenstrauss 變換),利用旋轉後座標分佈的性質進行向量量化,從理論上實現最優誤差界。

而 TurboQuant 方法的核心同樣是在量化前對輸入向量施加隨機旋轉(Johnson-Lindenstrauss 變換),這一點,甚至還是 TurboQuant 作者在 ICLR 審查回覆中親口承認的。

圖片

然而,TurboQuant 論文全程刻意迴避與 RaBitQ 在方法上的直接關聯,反而在正文中將 RaBitQ 描述為基於網格的乘積量化(grid-based PQ),並且在描述中忽略了 RaBitQ 核心的隨機旋轉步驟,有意模糊兩者之間的傳承關係。

TurboQuant 的第二作者 Majid Daliri 早在 2025 年 1 月便曾主動聯繫高健揚,請求協助調試其自行用 Python 重現的 RaBitQ 程式碼,這說明 TurboQuant 團隊對 RaBitQ 的技術細節知之甚詳。

既然早已知曉並請教過原作者,為何在最終的論文中不進行合理的引用與客觀比對?

高健揚團隊在發現這些問題後,本著學術嚴謹的態度,自 2025 年 5 月起便透過電子郵件與 TurboQuant 團隊進行了多次私下溝通,並明確指出了其中的事實性錯誤。

然而 TurboQuant 團隊以「隨機旋轉已成為領域標準技術,無法引用每一個使用它的方法」為由拒絕修正。隨後,這篇論文不僅被推上了 ICLR 2026,更成為全球關注的焦點。

若這樣的學術敘事不被糾正,終將逐漸成為共識。高健揚團隊最終選擇公開列舉幾項指控。

三項具體指控

高健揚在文章中列出了三項具體問題。

第一,系統性迴避技術相似性。

TurboQuant 不僅未能正面討論兩者方法的結構聯繫,反而將原本正文中對 RaBitQ 不完整的描述移至附錄,這一舉動甚至發生在審查人已明確指出「RaBitQ 及其變體與 TurboQuant 相似,皆使用了隨機投影」,並要求充分討論之後。

TurboQuant 作者回覆稱:「隨機旋轉與 Johnson-Lindenstrauss 變換的使用已是該領域的標準技術,我們不可能引用每一篇使用這些方法的論文」。

高健揚團隊認為這一回應是在轉移矛盾:作為在相同問題設定下,率先將隨機旋轉(Johnson-Lindenstrauss 變換)與向量量化結合,並建立最優理論保證的具體先行工作,RaBitQ 理應在文中被準確描述,其與 TurboQuant 方法的聯繫亦應充分討論。

第二,錯誤描述 RaBitQ 的理論結果。

TurboQuant 論文將 RaBitQ 的理論保證定性為「次優(suboptimal)」,並歸因於「較寬鬆的分析(loose analysis)」,卻未給出任何推導、比對或證據。

事實是,在擴展版 RaBitQ 論文(arXiv:2409.09913)的定理 3.2 中,已嚴格證明 RaBitQ 的誤差界達到了理論電腦科學頂尖會議論文(Alon-Klartag, FOCS 2017)給出的漸近最優誤差界。正因這一成果,高健揚團隊獲邀至理論電腦科學頂尖會議 FOCS 的研討會進行報告。

2025 年 5 月,高健揚團隊與 TurboQuant 的第二作者 Majid Daliri 進行了多輪詳細的郵件技術討論,逐條澄清了這一錯誤解讀,Majid Daliri 也明確表示已告知全體共同作者。然而這一錯誤定性在論文經歷完整審查、被收錄乃至大規模宣傳的整個過程中,始終未被更正。

第三,刻意製造不公平的實驗條件。

TurboQuant 論文在測試 RaBitQ 速度時,既未使用官方開源的 C++ 實作,轉而使用了 Majid Daliri 自己翻譯的 Python 版本,又將 RaBitQ 限制在單核心 CPU、關閉多執行緒的條件下運行,而 TurboQuant 自身則使用 NVIDIA A100 GPU 進行測試。這兩層系統性的不公平條件均未在論文中明確揭露。

Majid Daliri 本人曾在 2025 年 5 月的郵件中承認了單核心限制這一情況,但論文仍將由此得出的「RaBitQ 比 TurboQuant 慢數個數量級」的結論呈現給讀者,卻未附任何說明。

選擇公開發聲

高健揚表示,他們在 2025 年 11 月便發現 TurboQuant 提交了 ICLR 2026,隨即聯繫 ICLR 計劃委員會主席(Program Committee Chairs),但未獲任何回應。

2026 年 1 月論文正式被收錄後,谷歌開始透過官方管道大規模推廣,相關內容在社群媒體上的瀏覽量迅速達到數千萬次。

2026 年 3 月,高健揚團隊再次正式致函 TurboQuant 全體作者,要求說明與更正。目前收到的回覆來自第一作者 Amir Zandieh,承諾會在 ICLR 會議正式結束後修正問題二和問題三,但拒絕就技術相似性問題作出任何討論。

高健揚已在 ICLR OpenReview 平台發布公開評論,並向 ICLR 大會主席(General Chairs)、PC 主席及代碼與倫理主席(Code and Ethics Chairs)提交了包含完整證據的正式投訴,同時表示將在 arXiv 發布關於 TurboQuant 和 RaBitQ 的詳細技術報告,並保留進一步向相關機構反映的選項。

圖片

他在文末寫道:「一篇論文被 Google 以數千萬曝光量推向公眾,在這種體量下,論文中錯誤的敘事不需要主動傳播,只需要不被糾正,就會自動成為共識。」

目前,高健揚等人的主張得到了許多人的支持。

圖片 圖片

許多人表示,谷歌在 AI 研究上這樣的做法已不是第一次了。

或許谷歌與 ICLR 官方需要給出解釋。

參考內容:

https://zhuanlan.zhihu.com/p/2020969476166808284

https://x.com/gaoj0017/status/2037532673812443214

https://openreview.net/forum?id=tO3ASKZlok

https://research.google/blog/turboquant-redefining-ai-efficiency-with-extreme-compression/

圖片

© THE END

轉載請聯繫本公眾號獲得授權

投稿或尋求報導:liyazhou@jiqizhixin.com


分享網址
AINews·AI 新聞聚合平台
© 2026 AINews. All rights reserved.