DeepMind 之父驚人自白:親手打造的 AI 恐致人類滅絕,但已無人能踩煞車

圖片

新智元報導

編輯:KingHZ

【新智元導讀】從攔截彼得·泰爾、警告馬斯克,到如今公開表示「必須具備適應能力」,哈萨比斯史詩級大轉彎:AI 安全視窗正在永久關閉,他不再寄望制度,而是押上全部身家——賭影響力、賭良知,賭自己。

最怕 AI 毀滅人類的人,正在拼命製造 AI!

最相信治理的人,如今親口承認:治理徹底靠不住!

最強調安全的 DeepMind,也被拖入戰時軍備競賽!

就在幾小時前,DeepMind 創辦人 Demis Hassabis(哈萨比斯)親手砸碎了 AI 安全幻想,從理想主義者徹底轉向現實派。

圖片

他承認:超級智慧可能導致人類滅絕,卻只能靠自己「搶座上桌」來護航。

哈萨比斯,這個曾發誓要用嚴密的制度、法律約束和倫理委員會將 AI 鎖進籠子裡的人,坐在那盞老舊吊燈下,無奈承認:

「安全已不再取決於治理結構。即便有董事會,在關鍵時刻,他們也未必會做對的事。」

他轉而提出了一個極具現實主義、甚至帶有些許悲劇色彩的新方案:「我必須坐上桌,爭取影響力。」

圖片

幻想再三破滅,哈萨比斯轉身

哈萨比斯並非普通的加速派。

一般而言,AI 領袖通常分為兩派:一派是以 OpenAI 奧特曼為代表的「加速主義者」,相信技術總能解決技術帶來的問題;另一派是憂心忡忡的「末日預言家」,認為 AI 可能像核武一樣導致人類滅絕。

但哈萨比斯是一個極其複雜的矛盾體:他是為了阻止末日,才決定親手製造 AI。

這種近乎悖論的動力源於他極度深邃的焦慮。

哈萨比斯對「AI 滅絕風險」瞭若指掌,熟悉程度甚至超過了最激進的抗議者。

他和 DeepMind 的另一位聯創 Shane Legg,就在一次 AI 安全的講座上相識。

圖片

目前,Shane Legg 任 Google DeepMind 的首席 AGI 科學家,擔任 AGI 安全委員會聯席主席,同時也領隊研究後 AGI 時代的世界可能是什么樣子。

在「奇點峰會」上,他曾攔截彼得·泰爾(Peter Thiel),向他兜售關於機器如何超越人類的幻象。

他曾當面告訴馬斯克,殖民火星毫無意義,因為如果超級智慧是惡意的,它同樣能造出橫跨星際的火箭,火星絕不是人類的避難所。

這種焦慮催生了他早期極具英雄主義色彩的「單體治理」(Singleton Scenario)構想——

他曾嚴肅地計劃,帶著全球最頂尖的科學家,躲進一個祕密的「地堡」——可能是摩洛哥的沙漠,也可能是某個與世隔絕的孤島。

在那裡,他們將像開發曼哈頓計劃一樣,在沒有資本壓力、沒有地緣競爭、沒有世俗干擾的情況下,代表全人類開發出第一個「絕對安全」的超級智慧。

圖片

哈萨比斯被馬斯克背刺?

「只要這個世界上只有一隻手握著火種,我們就還能控制火勢。」這是哈萨比斯最初的邏輯。

為了這個邏輯,他在 2014 年將 DeepMind 賣給 Google 時,開出了歷史上最奇葩的收購條件:

  • 即使 Google 付了錢,哈萨比斯依然要在 AI 安全事務上保持絕對的獨立;
  • 設立一個由獨立專家組成的外部委員會來監督整個進程;
  • AI 的軍事應用將被嚴格禁止。

從少年時代起,哈萨比斯就立志要建構強 AI。而只有確保其安全性,他才能為畢生的事業找到正當理由。

Google 收購前不久,哈萨比斯曾提醒 DeepMind 的研究員候選人,如果簽約加入,就要做好心理準備——最終的終局之戰來臨時,他會進入一個地下基地,實現單體治理的壯舉。

2015 年,為了落實 Google 承諾設立的 AI 監督委員會,DeepMind 組織了一場祕密集會,邀請了哲學家和技術專家參加。

哈萨比斯邀請馬斯克主持集會,地點設在馬斯克的 SpaceX 加州總部。

圖片

但這一招適得其反。這次集會,標誌著哈萨比斯的安全構想開始瓦解。

馬斯克聽取了哈萨比斯及其聯合創辦人的簡報,隨後反其道而行之。他與奧特曼聯手創立了 OpenAI。

那一刻,哈萨比斯的安全烏托邦就開始死了。

圖片

失了裡子,還丟面子了

考慮到人性,這種局面不可避免。面對鑽木取火般史詩級的 AI 技術前景,人們並不會凝聚成一個單一的集體。他們爭論不休、相互嫉妒、各自為營。

此時,哈萨比斯本可以停下來重新思考。

如果「單一主體」的設想過於天真,AI 開發者又如何避免一場衝向懸崖的競賽?

但哈萨比斯非但沒有停下腳步,反而加速前進。2016 年,AlphaGo 橫空出世。機器智慧超越人類智力的時間表,一下子提前了。

為了跟上 AI 這一進展,哈萨比斯提出了新的想法,希望讓 AI 服務於人類。他與聯合創辦人穆斯塔法·蘇萊曼一起,著手與 Google 談判,尋求建立一套新的治理保障機制。

為了推進這個祕密的「馬利歐計劃」(Project Mario),他聘請了一支頂尖的法律團隊,獲得了外部 10 億美元的資金承諾,並考慮如果無法獲得對技術的控制權,就讓 DeepMind 從 Google 獨立出去。

與此同時,蘇萊曼還帶領 DeepMind 團隊參與了一項幫助英國國家級的急性腎病管理項目。

如果能實現 AI 的獨立治理,又能改善普通英國民眾的健康狀況,哈萨比斯或許就能確信,自己的追求確實是向善的。

然而,這兩項努力均以失敗告終。

與 Google 圍繞治理權的拉鋸戰持續了三年,困難重重。

而幫助英國國家醫療服務體系(NHS)的項目,則遭到了隱私保護倡導者的強烈反彈——他們憤怒於一家美國科技巨頭的子公司可能染指患者數據。

到 2019 年,哈萨比斯和 DeepMind 在這兩條戰線上都已退卻。蘇萊曼最後也離開了 DeepMind。

圖片

ChatGPT 致命一擊,Google AI 狂飆

2022 年,ChatGPT 的爆發,像一顆核彈丟進了哈萨比斯的辦公室。

在此之前,哈萨比斯還試圖維持「科學家的優雅」。

他帶領團隊開發 AlphaFold,破解蛋白質摺疊難題,拿下了諾貝爾獎。

圖片

他認為這是 AI 服務人類的最高境界:一種純粹的、造福醫療的、可控的科學。

但市場不這麼看。當 ChatGPT 成為歷史上增長最快的應用時,Google 慌了,整個矽谷都瘋了。

2022 年,ChatGPT 爆火那天,哈萨比斯在內部定調:現在是戰爭狀態!

在這個狀態下,所有之前的安全承諾都變得脆弱不堪:

  • Google 開始積極接觸國防部門,試圖將 AI 賣給五角大廈(曾是哈萨比斯的紅線)。
  • 在權力鬥爭中,原本那個「獨立倫理委員會」幾乎隱形。
  • 為了趕上 GPT-4,DeepMind 與 Google Brain 強行合併,速度取代了嚴謹。

哈萨比斯看清了一個殘酷的現實:在 AI 競賽中,沒有一個非營利的制度能寄生在營利性巨頭的體內。

當生存受到威脅,所有的倫理都是奢侈品。

圖片

哈萨比斯親眼看著自己親手築起來的所有牆,一堵一堵倒掉。

他終於承認:「即使有治理委員會,關鍵時刻也可能做錯決定。」

真正失控的不是模型,而是人類競賽

圖片

孤獨的人類守望者

現在,哈萨比斯徹底轉向現實主義。

他的目標,是爭取到「一張決策桌旁的席位,這樣當安全問題出現時」,他就能參與決定解決方案。

「事情不是非黑即白的,尤其是當你面對一項後果未知的技術時,」他告訴記者。「所以你必須有適應能力。你不得不從理想主義者轉變為現實主義者,但希望依然能堅守自己的價值觀。」

哈萨比斯對「治理」的徹底祛魅,放棄了制度安全,改為靠個人影響力「搶座上桌」。

一邊狂推 AlphaFold 拿諾貝爾獎、Gemini 繼續衝鋒,一邊把希望死死攥在「有良知的人」手裡。

更狠的反轉來了:連馬斯克這種曾經最激進的安全派都開始狂踩油門。

樂觀派還在喊「對齊技術能解決一切」,可哈萨比斯自己都不信了。

制度徹底死了。

OpenAI 董事會罷免奧特曼,又瞬間被資本力量反殺。

他選擇了最無奈的一條路:「讓自己成為權力的一部分。」

他現在的安全邏輯是:既然我無法阻止這場競賽,那我就必須贏得這場競賽。我必須留在牌桌上,我必須擁有最高的話語權。

這樣,當真正的「奇點」來臨,當那個人類無法理解的決定需要被做出時,至少,坐在那個關鍵位置上的人,是一個從第一天起就對 AI 心存敬畏的哈萨比斯。

他現在只能賭——賭「好人掌權」能救世界。

可問題來了:如果 AI 安全只能靠「好人掌權」,到底是救贖,還是最危險的賭局?

AI 安全視窗正在永久關閉。

超級智慧若對齊失敗,造的火箭、殖民的太空,都逃不掉滅頂之災。

人類本性早已把統一治理變成永遠的笑話。

唯一希望,只剩「有良知的人掌握話語權」這種最脆弱、最危險的方案。

哈萨比斯不是唯一改變的人,他只是第一個把殘酷現實說透的人。

現在,第 37 手棋,已經落在我們每個人頭上——

你我正在見證的,是一場文明豪賭。

參考資料:

https://www.theatlantic.com/ideas/2026/03/ai-google-deep-mind-hassabis/686527/?gift=CEkEIkBH6dRxwlqcDGFBTO2NKBCl3GKJsmVqCahCOzo

圖片

圖片


分享網址
AINews·AI 新聞聚合平台
© 2026 AINews. All rights reserved.