メモリ株を 9000 億ドルも暴落させたグーグルの AI 論文、実は学術不正の疑いか

今回の大規模な市場の混乱が、これほど巨大な学術スキャンダルを招くことになるとは誰も予想していなかった。

今週金曜の夜、グーグルによる学術不正疑惑が AI 業界の焦点となった。

スイス連邦工科大学チューリッヒ校(ETH Zurich)の博士研究員である高健揚(ガオ・ジャンヤン)氏は論文を発表し、グーグル・リサーチの論文『TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate』において、既存のベクトル量子化アルゴリズム「RaBitQ」に関する記述、理論結果との比較、実験比較のすべてに重大な問題があると指摘した。さらに、これらの問題は論文投稿以前に明確に指摘されていたにもかかわらず、著者側があえて無視したと主張している。

AI 研究の「主軸」となる企業群を一掃しかねないほどの影響力を持つとされる AI 研究であり、TurboQuant の業界における価値は疑いの余地がないように思われていた。しかし、グーグルによって神壇に押し上げられ、数千万回もの露出を得た頂カンファレンス ICLR の論文の中核技術が、実は「盗用」の疑念に深く沈んでいるなど、誰が想像だにしただろうか。

メモリ株を揺るがせた TurboQuant

グーグルの TurboQuant に関する論文は、AI 研究の枠を超えて話題となっている。世界の AI 研究における頂カンファレンスである ICLR 2026 に採択された同論文は、大規模言語モデル(LLM)の KV キャッシュによるメモリ使用量を最低 6 倍削減し、速度を最大 8 倍向上させつつ、精度の低下はゼロだと主張する圧縮アルゴリズムを紹介するものだ。

TurboQuant は 2025 年 4 月にプレプリント共有プラットフォーム arXiv で公開され、2026 年 1 月に ICLR 2026 へ採択、そして 3 月 24 日にグーグル・リサーチのブログで紹介されたことで、爆発的な注目を集めることとなった。

グーグルが X(旧 Twitter)で投稿したプロモーション投稿の閲覧回数は数千万回に達した。

AI 大規模モデルの推論時、AI は新しい単語を生成するたびに会話の履歴(コンテキスト)を「振り返る」必要があるが、この部分は KV キャッシュに保存される。そのため、KV キャッシュが占有するメモリ量は、大規模モデルの速度とコストを制限する最大のボトルネックとなっていた。TurboQuant が提案する極限の無損失圧縮手法の効果は驚異的であり、大規模モデルの稼働に必要なハードウェアリソースを大幅に削減できるため、メモリチップの需要が爆発的に増加するとの市場予想に直接打撃を与えることになった。

グーグルのブログ公開当日、米国のメモリ株は揃って暴落し、サンディスクは一時的に 6.5% 安、シーゲート・テクノロジーは 5% 超え安、ウエスタン・デジタルは 4% 超え安、マイクロン・テクノロジーは 4% 安となった。市場から失われた時価総額は 1 日で 9000 億ドル(約 135 兆円)を超えた。

グーグルがこれほどまでに宣伝するこの技術は、どのようにして成り立っているのだろうか。端的に言えば、極めて巧妙な手法でメモリ消費という死に絡みを解決したものだ。

TurboQuant は 2 段階の圧縮によりこれを実現している。第 1 段階では、「ランダム回転」と「PolarQuant」メカニズムを用いて高次元ベクトルを極座標にマッピングし、極限圧縮を達成する。第 2 段階では、Quantized Johnson-Lindenstrauss(QJL)変換を用い、わずか 1 ビットの空間で内積計算のバイアスを補正する。

しかし、まさにこの技術的部分が、学術スキャンダルに火をつける導火線となってしまった。

ETH Zurich の高健揚博士は証拠を挙げて、グーグルが「革命的」だとして宣伝するこの中核メカニズムはグーグルの独自のものではなく、2 年前に自身のチームが完全に提案済みのものであると主張している。

さらに憤慨すべきことに、グーグルは自社の論文において、先行技術を意図的に「回避」し、「曖昧」にしているのである。

RaBitQ 著者が公開で疑問を呈す:TurboQuant の中核手法は 2 年前に存在した

RaBitQ シリーズの論文は 2024 年に発表され、高次元ベクトルの量子化手法を提案し、理論計算機科学のトップカンファレンス論文が示す漸近的最適誤差界に達することを理論的に証明した。

RaBitQ およびその拡張版は、それぞれトップカンファレンスである SIGMOD 2024 および SIGMOD 2025 で発表されている。

RaBitQ の中核的な思路の一つは、量子化の前に入力ベクトルへランダム回転(random rotation / Johnson-Lindenstrauss 変換)を施し、回転後の座標分布の性質を利用してベクトル量子化を行うことで、理論的に最適な誤差界を達成するというものだ。

一方、TurboQuant の手法の中核もまた、量子化前に入力ベクトルへランダム回転(Johnson-Lindenstrauss 変換)を施すことであり、この点は TurboQuant の著者自身が ICLR の査読者への返信で明言している。

しかし、TurboQuant 論文は全体を通じて RaBitQ との手法上の直接的な関連性を意図的に避け、本文中では RaBitQ を「grid-based PQ」と記述する一方で、RaBitQ の中核であるランダム回転の手順については触れず、両者の継承関係を意図的に曖昧にしているのである。

TurboQuant の第 2 著者である Majid Daliri 氏は、2025 年 1 月には自ら高健揚氏に連絡を取り、自身で Python を用いて再現した RaBitQ コードのデバッグ支援を要請していた。これは、TurboQuant チームが RaBitQ の技術的詳細を熟知していたことを示している。

すでに承知しており、かつ原作者に教えを請うたのであれば、なぜ最終的な論文において適切な引用や客観的な比較を行わないのだろうか。

高健揚氏のチームはこれらの問題を発見した後、学問的誠実さを持って 2025 年 5 月以降、メールを通じて TurboQuant チームと何度も非公開の対話を重ね、事実と異なる点を明確に指摘した。

しかし TurboQuant チームは、「ランダム回転は分野標準の技術となっており、それを使用したすべての論文を引用することは不可能だ」との理由で修正を拒否。その結果、この論文は ICLR 2026 へと押し上げられ、世界の注目を集める存在となってしまった。

このような学問的物語が是正されなければ、やがて「共通認識」となってしまう。高健揚氏のチームはついに公の場で行動を起こし、いくつかの告発を列挙した。

3 つの具体的な告発

高健揚氏は論文の中で、3 つの具体的な問題を列挙している。

第一に、技術的類似性の体系的な回避である。

TurboQuant は両者の手法構造の関連性について正面から議論できないばかりか、本文中の RaBitQ に関する不完全な記述を付録へ移動させた。この行為は、査読者から「RaBitQ およびその変種は、ランダム射影を使用している点で TurboQuant と類似している」と明確に指摘され、十分な議論を求められた後に行われたものである。

TurboQuant の著者は、「ランダム回転や Johnson-Lindenstrauss 変換の使用はこの分野の標準技術であり、これらの手法を使用したすべての論文を引用することは不可能だ」と回答した。

高健揚氏のチームはこの回答を問題のすり替えだと考えている。同一の問題設定下において、ランダム回転(Johnson-Lindenstrauss 変換)とベクトル量子化を組み合わせ、最適な理論保証を確立した具体的な先行研究である RaBitQ は、文中で正確に記述されるべきであり、TurboQuant の手法との関連性は十分に議論されるべきだからだ。

第二に、RaBitQ の理論結果の誤った記述である。

TurboQuant 論文は RaBitQ の理論保証を「最適ではない(suboptimal)」と断定し、その原因を「粗雑な分析(loose analysis)」にあるとしたが、その導出、比較、あるいは証拠は一切示していない。

事実として、拡張版 RaBitQ 論文(arXiv:2409.09913)の定理 3.2 において、RaBitQ の誤差界が理論計算機科学のトップカンファレンス論文(Alon-Klartag, FOCS 2017)が示す漸近的最適誤差界に達していることが厳密に証明されている。この成果により、高健揚氏のチームは理論計算機科学のトップカンファレンス FOCS のワークショップでの発表に招待されている。

2025 年 5 月、高健揚氏のチームは TurboQuant の第 2 著者 Majid Daliri 氏と複数回にわたり詳細なメールでの技術議論を行い、この誤った解釈を一つひとつ明確にした。Majid Daliri 氏も全共著者に伝達したと明言していた。しかし、この誤った評価は、論文が完全な査読プロセスを経て採択され、大規模な宣伝が行われる全過程を通じて、一度も訂正されることはなかった。

第三に、不公平な実験条件の意図的な作り込みである。

TurboQuant 論文が RaBitQ の速度をテストした際、公式に公開されている C++ 実装を使用せず、Majid Daliri 氏自身が翻訳した Python 版を使用し、さらに RaBitQ をシングルコア CPU・マルチスレッド無効の条件下で実行させた。一方、TurboQuant 自体は NVIDIA A100 GPU を用いてテストされている。この 2 重の体系的に不公平な条件は、論文内で一切開示されていない。

Majid Daliri 氏自身、2025 年 5 月のメールでシングルコア制限の件を認めていたが、論文では「RaBitQ は TurboQuant よりも数桁遅い」という結論を読者に提示するだけで、その旨についての説明は一切添えられていない。

公に声を上げる決断

高健揚氏によると、2025 年 11 月に TurboQuant が ICLR 2026 へ投稿されたことを発見し、直ちに ICLR プログラム委員長らに連絡したが、何ら返答は得られなかったという。

2026 年 1 月に論文が正式採択された後、グーグルは公式チャネルを通じて大規模なプロモーションを開始。関連コンテンツはソーシャルメディア上で瞬く間に数千万回の閲覧数を記録した。

2026 年 3 月、高健揚氏のチームは改めて TurboQuant の全著者宛てに正式な書簡を送付し、説明と訂正を求めた。現在届いている返答は、第 1 著者 Amir Zandieh 氏からのものだが、「問題 2 と問題 3 については ICLR 会議終了後に修正する」と約束する一方、「技術的類似性」の問題については一切の議論を拒否している。

高健揚氏は ICLR の OpenReview プラットム上で公開コメントを投稿し、ICLR 議長、プログラム委員長、コード・倫理委員長宛てに完全な証拠を添えた正式な苦情を提出した。さらに、TurboQuant と RaBitQ に関する詳細な技術報告書を arXiv に公開し、関連機関へのさらなる報告も選択肢として残すと表明している。

氏は文末で次のように記している。「1 本の論文がグーグルによって数千万回もの露出を得て一般大衆に押し付けられる中、誤った物語は自ら広められなくとも、訂正さえされなければ、自動的に『共通認識』となってしまうのだ」。

現在、高健揚氏らによる主張は多くの人々から支持を集めている。

多くの関係者は、グーグルの AI 研究におけるこうした振る舞いは今回が初めてではないと指摘している。

今やグーグルおよび ICLR 公式の説明が待たれるところだ。

参考資料:

https://zhuanlan.zhihu.com/p/2020969476166808284

https://x.com/gaoj0017/status/2037532673812443214

https://openreview.net/forum?id=tO3ASKZlok

https://research.google/blog/turboquant-redefining-ai-efficiency-with-extreme-compression/

© この記事の終わり

転載には当公众号の許可が必要です

投稿や取材のご依頼:liyazhou@jiqizhixin.com


分享網址
AINews·AI 新聞聚合平台
© 2026 AINews. All rights reserved.