剛剛,谷歌AI破解外星人難題!打破十年紀錄,自己寫演算法震撼諾獎得主

就在剛剛,谷歌DeepMind又出神功了。

他們開發的系統AlphaEvolve,在極值組合學問題上取得突破,一次性改進了五個經典拉姆齊數的下界!

論文地址:https://arxiv.org/pdf/2603.09172

更令人驚訝的是,這並不是透過人工設計五套不同演算法實現,而是透過一個統一的「元演算法」(meta-algorithm)來完成的。

推導這些搜尋演算法的難度極大,最佳結果至少是十年前了。而這次,DeepMind讓大型語言模型自主寫演算法,直接踏平了尘封十年的數學紀錄!

DeepMind研究者報喜後,CEO Hassabis也火速轉發慶賀。他表示,AlphaEvolve的這項成果,是AI在數學領域的又一個重要里程碑!

連圖靈獎得主LeCun,也主動祝賀團隊。

拉姆齊數問題到底難到了什麼程度?可說,它讓最偉大的數學家都感到絕望。

著名數學家、陶哲軒的導師保羅·埃爾德什(Paul Erdős)曾說,如果外星人威脅地球:必須在規定時間內算出R(5,5)這個拉姆齊數,否則就毀滅人類,那麼人類最理性的選擇,可能就是投降。

數十年來,拉姆齊數一直是組合數學中最頑固的難題之一。數學家想要在某個具體的拉姆齊數上取得進展,通常都必須從零設計一套專門的搜尋演算法。

但現在,AlphaEvolve把五個全破了!

而這,只是AlphaEvolve能力的冰山一角。

此前,它已經打破了尘封56年的矩陣乘法紀錄,優化了谷歌資料中心調度,並在AI晶片設計中發現了人類工程師未曾注意到的結構簡化方案。

當一個能夠自動發現演算法的系統,同時還能優化訓練自己的計算基礎設施時,我們毫無疑問正在見證一個全新物種的誕生。

大約一百年前,英國邏輯學家弗蘭克·拉姆齊證明了這樣的一個結論。

在一個六人小團體中,無論這六個人之間的關係如何,總能找到三個互相認識的人,或三個互不認識的人。

這個簡單直觀的例子是拉姆齊理論的最早原型。

在圖論中,R(r,s)定義為最小整數n,使得任何包含n個頂點的無向圖必然滿足以下至少一種情況:

  • 存在r個頂點的完全子圖(團 clique)
  • 或存在s個頂點的獨立集(independent set)

例如,R(3,3) = 6。

這就意味著,任意六個頂點的圖,必然包含一個三角形,或三個互不相連的點。

現在,對於一些小規模參數,比如(3,s) s ≤ 9,(4,s) s = 4,5,這些拉姆齊數已經被精確求出。

但對於大量參數,仍然存在巨大的上下界差距。

如何得到下界呢?

如果我們能構造一個圖,頂點數為n,不包含r‑團,也不包含s‑獨立集,那麼就說明:R(r,s) ≥ n + 1。

而此時,DeepMind三名研究發出論文,宣布用AlphaEvolve一次性刷新了五個經典拉姆齊數的下界。

  • R(3,13):60 → 61(此前紀錄保持11年)
  • R(3,18):99 → 100(此前紀錄保持整整20年)
  • R(4,13):138 → 139(此前紀錄保持11年)
  • R(4,14):147 → 148(此前紀錄保持11年)
  • R(4,15):158 → 159(此前紀錄保持6年)

儘管每個數字只往上推了1,但在拉姆齊數這個領域,推1比許多數學領域推一個數量級還難。

更關鍵的是,這五個突破全部來自同一個系統。

除了這五個新紀錄,它還匹配了所有已知精確值的拉姆齊數下界,以及大量其他值的當前最佳下界,總共覆蓋28個R(r,s)。

AlphaEvolve是怎麼做到的?

簡單來說,它是一個用大型語言模型來演化程式碼的智能體。它搜尋的對象,就是搜尋演算法本身。

這是理解這項工作最關鍵的一点。

傳統路徑是:人類專家根據數學直覺和領域知識,手工設計一套搜尋演算法(比如模擬退火、禁忌搜尋),然後讓電腦去跑。演算法好不好,全看人的功力。

AlphaEvolve把這一步自動化了。它的工作流程如下:

  1. 第一步,維護一個「演算法族群」。開始時只有一個最簡單的基線程式(甚至只是返回一個空圖)。
  2. 第二步,使用LLM變異程式碼。從族群中選出一個表現好的演算法,讓大型語言模型(Gemini)對程式碼進行「變異」——修改搜尋策略、改初始化方式、加入新的啟發式規則。
  3. 第三步,執行和評分。執行變異後的程式,看它能構造出多大的合法圖。如果圖的大小超過目前最佳紀錄,給高分;如果圖接近合法(違規次數很少),也給一定獎勵——這是為了引導搜尋向邊界推進。
  4. 第四步,進化迭代。把高分演算法放回族群,繼續選擇、變異、評估。循環往復。

這就是所謂的「元搜尋」(meta-search)——在演算法空間裡搜尋,而非圖空間。

換句話說,AlphaEvolve最終產出的也不只是一張圖,而是一段能找到好圖的程式碼。

論文中展示了AlphaEvolve為28個R(r,s)值發現的具體搜尋演算法。這些演算法風格差異極大,但可以歸為四大家族。

第一類:隨機起步,暴力退火。

最樸素的路徑。從隨機圖出發,用模擬退火逐步消除違規結構(三角形或過大的獨立集)。

R(3,5)、R(3,7)等較小的值就是用這類方法。

簡單,但對於大規模問題不夠用。

第二類:代數結構播種。

使用Paley圖、二次剩餘圖、三次剩餘圖等具深厚數學背景的代數圖作為起點,再做局部優化。

這些圖本身就具備接近拉姆齊約束的良好特性,相當於給搜尋一個「高起點」。

R(4,13)的突破就屬於這一類——從有限域F₁₂₇上的三次剩餘Cayley圖出發。

第三類:循環圖 + 無和集引導。

從循環圖(Circulant Graph)出發,利用無和集(sum-free set)的代數特性天然保證無三角形,再做增量擴展。

R(3,13)和R(3,18)這兩個突破屬於這一類。這也是產出新紀錄最多的一個家族。

第四類:混合/分形/谱方法。

最複雜的一類,融合了分形自相似結構、谱性質分析、多種啟發式的並行執行等。

R(3,11)的演算法就用了分形初始化+自適應能量場+動態溫度調節的組合。

有趣的是,每種演算法都高度針對特定的(r,s)值。

也就是說,AlphaEvolve並沒有找到一個通用的萬能演算法,而是為每個問題「量身訂製」了一套搜尋策略。

但訂製這個過程,是全自動的。

讓我們近距離看看一個突破性演算法的細節。

R(4,15):和聲記憶 + 谱初始化 + 有毒軌道隧穿。

對於這個問題,AlphaEvolve為它設計了一種叫「和聲遺傳記憶」(Harmonic Genetic Memory)的機制——

跨代維護一個全局記憶池,記錄哪些邊和哪些循環距離在成功的圖中頻繁出現。

初始化時,它要麼用廣義Paley圖這樣的代數結構,要麼根據和聲記憶的概率分布來擴展已有的最佳圖。

局部搜尋階段使用的是禁忌搜尋+模擬退火的組合,但每次刪除一條邊來消除4‑團時,不只是看直接效果,還要評估刪邊後產生大獨立集的風險,並給歷史表現好的邊加「和聲」保護分。

最驚人的是一個叫「和聲隧穿」(Harmonic Tunneling)的逃脫機制。

如果搜尋卡住了(還有4‑團未消除),演算法會找出一個「有毒軌道」。也就是在剩餘4‑團中出現頻率最高的循環距離d*,然後一次性翻轉所有距離為d*的邊。

這是一個極其暴力的操作,相當於對圖做了一次大規模手術,直接跳出當前的局部最優。

人類專家很難想到這樣的策略組合。但AlphaEvolve透過反复變異和進化,自己摸索出來了。

AlphaEvolve產生的演算法夠強,這點前面已經看到了。

但一個更尖銳的問題是:與人類頂尖專家手工設計的演算法相比,它贏在哪?

論文給出的三組對比,衝擊一個比一個大。

R(4,13):起點相同,AI贏在後半程。

此前最佳紀錄由Exoo和Tatarevic在2015年創造,他們的演算法從三次剩餘圖出發,用標準模擬退火優化。

AlphaEvolve選了相同的起點(F₁₂₇上的三次剩餘圖),但後續策略完全不同——

兩階段篩選、基於擾動的頂點擴展、帶「策略踢腿」的禁忌搜尋(停滯500步後強制隨機跳出)。

R(4,14):AI連起跑圖都換了。

Exoo在2015年用三次圖初始化,AlphaEvolve直接選了循環圖,在完全不同的搜尋空間裡探索,用隨機軌道採樣和高效位運算加速。

R(4,10):AI發明了人類文獻裡不存在的策略。

此前的最佳由Harborth和Krause在2003年用分支定界搜尋得到。

相比之下,AlphaEvolve的演算法從循環圖分布中採樣,結合自適應概率的禁忌搜尋和近似命中倉庫機制。

論文作者直言:「這種搜尋策略在已有文獻中根本找不到先例。」

歸納來看,AlphaEvolve產生的演算法有三個顯著特徵:

  1. 懂得利用已知的代數結構。AlphaEvolve不是隨機搜尋,而是會選擇Paley圖、循環圖等「好的起點」。這說明LLM在程式碼變異過程中,隱含地運用了圖論和代數的領域知識。
  2. 喜歡串連多種啟發式。人類演算法往往用單一策略(比如純模擬退火),AlphaEvolve則經常把多種方法鏈在一起——先禁忌搜尋,再退火,再遺傳演算法,再來一輪局部修復。
  3. 自創了快速近似計數方法。在大圖上精確計算所有4‑團和13‑獨立集非常耗時,AlphaEvolve的演算法會用位運算加速、啟發式過濾、增量更新等技巧來大幅降低計算開銷。

Hassabis曾這樣概括AlphaEvolve的意義:

知識催生更多知識,演算法優化其他演算法——飛輪正在加速旋轉。

Gemini產生程式碼,程式碼演化出更好的演算法,演算法優化谷歌的基礎設施,更高效的基礎設施加速Gemini的訓練,更強的Gemini產生更好的程式碼……

到這一步,AI已經嵌入了自我提升的基礎設施之中。

而此次拉姆齊數的突破,又把故事往前推了一步。

矩陣乘法有明確的優化目標和連續的評估標準,拉姆齊數則不同。它的搜尋空間是離散的、組合爆炸的,沒有梯度可以沿著爬坡。

最後,論文也坦承了一個重要限制:

它目前只能處理「下界」,也就是構造反例。而拉姆齊數的「上界」需要證明某個尺寸以上的圖不可能滿足約束,無法靠找一個例子來解決。

這條路AlphaEvolve暫時還走不了。不過在它能走的路上,沒有人走得比它更遠。

十年前,AlphaGo下出Move 37,AI證明了自己在特定領域可以超越人類直覺。

五年前,AlphaFold解決了困擔生物學界50年的蛋白質結構預測難題。

AlphaEvolve乾脆跳出了固定賽道——它開始自己發明規則了。

參考資料:

https://x.com/demishassabis/status/2032267485735460867

https://x.com/pushmeet/status/2031727892346941499

https://arxiv.org/pdf/2603.09172

https://x.com/aakashgupta/status/2032326637577257345


分享網址
AINews·AI 新聞聚合平台
© 2026 AINews. All rights reserved.