DeepMind 運作模式曝光!暗示根本沒輸 OpenAI:員工 20% 時間重啟創新,保守巨頭直接變「實驗狂」

作者 | 高允毅

很多人知道,Transformer 是 Google 發明的。但 ChatGPT,卻不是 Google 做出來的。這件事,在過去幾年,幾乎成了矽谷最大的「遺憾註腳」。

但如果真正走進今天的 Google DeepMind,你會發現 Google 並不是「慢」,而是在下一盤更大的棋。

近期,Google DeepMind 營運長 Lila Ibrahim 與 Google 研究、技術與社會資深副總裁 James Manyika 在一檔 Podcast 中,第一次系統性拆解了這家公司正在發生的變化:

  • DeepMind 到底怎麼運作?

  • 為什麼 Gemini 可以每 6 個月迭代一代?

  • Google 如何在量子運算、材料科學、氣象預測、太空算力這些領域同步推進?

  • 以及,AI 原生產品是如何真正落地,而不是停留在實驗室?

如果說 OpenAI 是一家高速衝刺的新創公司,那麼今天的 Google,更像一座重新啟動的「現代版貝爾實驗室」

DeepMind 運作模式有兩個核心方法論:

  • 只給方向,不給答案。

制定宏大的研究議程,但不規定路徑,研究者擁有高度自由。

  • 廣泛的跨領域研究。

生物倫理學家、神經科學家、電腦科學家可以在同一張桌子上工作,這是 Google 的日常。

而在這套機制背後,還有一個關鍵變數,即 Google DeepMind 的靈魂人物 Demis Hassabis。他擁有對時機的精準判斷,既能由上而下設定方向,又允許由下而上產生創新。

比如 Demis Hassabis 判斷,2026 年 Gemini 已經足夠成熟,可以全面吸收 DeepMind 在「學習科學」上的積累。 這種判斷,決定了資源如何傾斜,決定了產品什麼時候進入爆發期。

James Manyika 提到,過去三年最大的變化,是把 Google Brain 和 DeepMind 合併,圍繞 Gemini 建立了一個中央 AI 引擎。在這一模式下:

  • Gemini 是全公司的底層基礎設施

  • 每 5、6 個月完成一次重大迭代

  • 模型一發布,立刻進入搜尋、Workspace、Gemini App 等核心產品

與此同時,Google 實驗室文化正在回歸,而且規模比過去更大。

James Manyika 透露,實驗室目前同時推進約 30 個專案。

Google 有一套聞名矽谷的創新機制,即全體員工拿出 20% 的時間用來做專案以外的探索,這會源源不斷爆發出好產品來反哺 Google。比如能消化資料的 Notebook LM,AI 電影製作工具 Flow。

如果只看生成式 AI,你會低估 Google。因為 DeepMind 同時在推進生物研究、教育體系、材料科學、氣象預測、量子運算、太空算力計畫等。而在不少領域,Google 已經取得里程碑式的成就。

從量子糾錯的突破,到覆蓋 150 個國家的洪水預測系統,再到試圖把 TPU 送入太空進行訓練的 Project Suncatcher,這些布局顯示出一種極少見的長期視角。

「從謹慎地發布」到「在發布中學習」, Google 完成了新節奏的轉變。這家公司,正在重新定義什麼叫「長期主義」。當它真正開始加速時,人們是否已經意識到,它的棋局,比所有人想像的都要大?

以下是 Podcast 的精彩細節,有更多 Google 最新進展,歡迎來看:

Google DeepMind 的運作模式:貝爾實驗室與阿波羅計畫

主持人:DeepMind 執行長 Demis Hassabis 之前在我們節目裡,把 DeepMind 形容為現代版的貝爾實驗室。Laya,這具體意味著什麼?你能介紹一下它的研究模式嗎?它是實驗室模式還是公司化運作?

Laya Ibrahim:我想先從我們的使命「負責任地建構 AI,造福人類」說起,因為一切都以此為基礎。

首先,我們會制定極具雄心的研究議程,只明確大方向,不規定具體做法。 我們的思路借鑑了貝爾實驗室的黃金時代,也參考了阿波羅計畫,甚至還有皮克斯。核心是匯聚頂尖人才,打造能讓他們成功、能放手探索的環境。

第一,明確宏大的研究方向,告訴團隊聚焦哪些領域,但不規定他們如何工作。

第二,由於研究範圍極廣,我們要打造跨領域團隊。 我們要營造一種文化,讓生物倫理學家、電腦科學家、神經科學家能並肩工作,我們認為這才是產生突破、創造價值的關鍵。這種方式已經帶來了很多非凡的成果。我們也敢於探索,並且懂得判斷時機。Demis Hassabis 在掌握節奏上非常出色:該投入探索、設定宏大目標、評估進展;也敢於果斷喊停,或是加倍投入。

一個很好的例子:過去幾年我們一直在學習科學領域深耕,研究人類如何學習、如何改進學習方式。今年 Demis Hassabis 判斷,Gemini 已經足夠成熟,可以把我們在學習科學上的積累全面注入 Gemini,這也是我們的重點方向之一,以此提升 Gemini 為學習者提供的能力。 Google DeepMind 在時機判斷上,確實有很獨特的地方。

主持人:我們再梳理一下流程。就像你剛才說的,Demis Hassabis 判斷 Gemini 已經準備好承接學習科學相關能力,於是 DeepMind 開始推進。Google DeepMind 的工作,由上而下和由下而上的比例大概是多少?Open AI 曾把自己的模式形容為大公司裡的一堆新創公司。Google 是類似模式,還是更偏由上而下?

Laya Ibrahim:因為我們的使命非常宏大,我們要找到 AI 能夠幫助人類解開宇宙謎題、應對人類重大挑戰的核心方向。這個範圍足夠廣,我們既可以做氣象研究、提升天氣預報,也可以做 AlphaFold(是 DeepMind 開發的、能精準預測蛋白質 3D 結構的 AI 程式,被稱為結構生物學的革命)。這樣的蛋白質結構預測,幫助理解疾病、研發療法;還可以持續優化生成式 AI,改善人們的生活。

我們採取非常寬泛的組合布局,但同時給研究者留出探索空間。這也是我一開始說的,我們要找到合適的人才,即使命驅動、價值觀一致、願意探索、追求大影響力、能依托 Google 平台實現規模化的人。Demis Hassabis 在這方面的思考非常出色,他深耕這個領域已經很久了,DeepMind 成立 16 年,這幾乎是他畢生的使命。同時我們團隊裡滿是富有創造力、喜歡跨領域協作、希望改變世界的人,他們也會提出由下而上的思路和做法。所以是兩者結合,一部分是 Demis Hassabis 主導的由上而下,一部分是團隊由下而上的探索

主持人:這種組織架構對管理和人才要求很高。我們再把視野放大到整個科技業。曾經有一段時間,很多科技公司會給頂尖人才很大的自由度,去探索短期看不到成果的方向。後來突然進入 AI 競賽,很多公司把做長期專案的研究者和產品綁得更緊,長期研究幾乎被要求立刻產生產品價值。這種變化在 DeepMind 內部也發生了嗎?

Laya Ibrahim:我加入 Google 大概八年了,我們確實經歷了一段發展歷程。但 Google DeepMind 之所以能讓很多員工長期留下來,正是因為我們有足夠寬泛的布局。有些人希望繼續做前沿 AI 的深度研究,或是偏科學方向的探索,我們有空間支持這種純探索;同時我們也能落地生成式 AI 的進展,比如去年 Gemini 取得的一系列突破。

主持人:我再進一步追問。Google 內部的轉型被描述為:不再讓每個產品部門各自制定 AI 路線,而是公司內部有一個中央引擎,也就是 AI 部門,負責建構 AI 能力,再賦能給各個產品部門。你能介紹一下這個流程嗎?

Laya Ibrahim:這也是過去幾年最令人興奮的變化之一,即Google Brain 和 DeepMind 合併,把 Google 最優秀的 AI 團隊和研究力量匯聚到一起,讓我們可以布局更廣泛的領域。正如你所說,我們的定位是 AI 創新引擎。但我不會說我們是「分發」技術給其他 Google 團隊,而是和產品部門、用戶緊密協作,了解真實需求,從一開始就把模型做得更貼合場景,以協作、負責任的方式推進。等到技術落地到 Google 各個產品時,已經經過大量測試,並可以針對特定場景優化。 這也帶來了很好的結果,比如我們發布 Gemini 3 之後,立刻就能向大量開發者和用戶開放使用。

主持人:最後一個問題,然後我交給 James。我們節目有一個觀察:Sundar Pichai 曾在麥肯錫工作,現在 Google 的重組、集權、再協同各團隊的方式,很像麥肯錫式思路。這一點是否屬實?

James Manyeka:我本人也曾在麥肯錫工作,或許我能回應這個組織架構的問題。現在 Google 的格局非常特別:一方面是 Gemini 專案,這是所有能力的基礎,建構大規模模型,Gemini、Gemini 2.5、Gemini 3 等等。三年前,我們整合 Google Brain 和 DeepMind 團隊,啟動 Gemini 專案。如今這個專案支撐著全公司的產品,你能在搜尋、Google Workspace、Notebook LM 等所有產品裡看到 Gemini。它是底層基礎,這也是為什麼 Google DeepMind 和 Gemini 專案成為了核心引擎。

除此之外,公司還有大量深度科學研究,聚焦最根源的問題,打開大量研究和創新的入口。 我們還有很多其他雄心勃勃的專案,比如 Genie 建構世界模型,還有為 Waymo 做的專項工作,提升自動駕駛模型的能力。所以並不是嚴格的由上而下,而是以 Gemini 專案為基礎,確保每一次快速迭代。現在我們大概每 6 個月就有新一代 Gemini 問世,並且立刻全產品落地,沒有延遲。最新版 Gemini 一推出,就會出現在搜尋、Gemini App 等所有地方。這就是過去三年發生的核心變化。

Google 實驗室的回歸與 AI 原生產品的落地

主持人:我們來聊聊實驗室。早期用過 Google 產品的人都記得,Google 曾經有一個實驗性極強的時代,後來實驗室一度消失。雖然實驗沒有完全停止,但實驗室被重啟後,我們開始看到 Google 推出大量實驗性專案,已經很久沒有這種景象了。實驗室在其中扮演了多大角色?為什麼實驗室重新回歸?

James Manyeka:實驗室非常有意思。三年前,在 Sundar Pichai 的推動下,我們重啟了實驗室。 當時正處在 AI 爆發的節點,我們想探索、實驗、打造完全以 AI 為核心的原生產品。實驗室的思路是:把 Google DeepMind、Google 研究以及公司內部所有頂尖研究成果拿過來,專注打造實驗性的 AI 原生產品。

大家最熟悉的應該是現在的 Notebook LM(是 Google Labs 推出的、基於 Gemini 模型的 AI 原生研究與學習工具,核心是讓你把自己的資料「餵」給 AI,讓 AI 基於你的專屬內容提供服務)。它的起源非常有意思。一開始它叫 Tailwind,只有四五個人做,想法是打造一款 AI 原生的研究工具,基於用戶自己的內容來工作。你可以把資料、書籍、論文、草稿、任何你想匯入的內容放進 Notebook,然後和它互動。這個創意一定程度上也受到作家 Steven Johnson 的啟發,他會保存幾十年的筆記、書稿草稿,他希望有一個產品能把所有資料放進去,然後互動提問:我 1997 年是怎麼想的?那份草稿寫了什麼? Notebook LM 最終就變成了這樣一款強大的研究工具,基於用戶自有內容,生成摘要或文稿時會附帶引用來源,這是它的核心功能。如果它引用了你的內容,會標註出處,你可以點擊跳轉回原文,非常實用。

後來我們又想:有時候我不想只讀資料,想聽資料。於是我們加入了 AI 音音概覽功能,效果就像 Podcast,有兩位主持人對話解讀。這個想法最早來自 Jeff Dean 等團隊,他們每天要讀大量電腦科學論文,希望能在通勤時聽論文總結,篩選要精讀的內容。而且人們透過對話、討論學習的效果更好,這也是研討會的價值,於是就有了音概覽功能,產品也因此真正爆發。每次我做 AI 演示,都會現場建一個 Notebook,然後播放 Podcast,第一次接觸的人都會非常震撼。很多觀眾和聽眾問我:「你們是不是用你的聲音訓練的?」因為聽起來很像我。我都會說:不是,只是它開頭總會說「我們來拆解一下」,幾乎所有 Podcast 都會這麼開場。

Notebook LM 還有一個很好的使用場景:你可以匯入各種格式內容——論文、YouTube 影片、本機檔案。我曾經用過一個場景:處理來自 100 多個國家、不同語言的論文,全部匯入後直接跨語言互動,現在它還支援生成影片概覽,帶圖表和投影片的那種。這就是實驗室裡發生的事情:把 DeepMind 和 Google 研究的頂尖成果,轉化為優秀的 AI 原生產品。

另一個例子是 Flow(是 Google Labs 推出的 AI 電影製作工具,由 DeepMind 的 Veo、Imagen 與 Gemini 模型驅動,專為創意人士打造,能把文字、圖像轉化為連貫、高品質的影片片段與完整場景)。我講個小故事:我人生第一次也是最後一次登山,是厄瓜多的科托帕希火山。我想做一段影片記錄,但有些瞬間我沒有拍,只想專心登山。比如我的水壺從背包掉出來,滾下冰川消失在暗處。我想用動畫還原這個片段,就用了 Google 的影片生成工具 Flow,輸入指令生成紀錄片風格動畫,插入到影片裡。放在以前,我得專門找動畫師。Flow 就是實驗室誕生的神奇產品。

當時實驗室負責人 Josh Woodward、Demis Hassabis 和我們幾個人聚在一起討論:如果把現有工具整合起來,能做出什麼實用的東西?最初版本比較粗糙,後來我們找了真正的電影製作人交流,獲取回饋。實驗室的一大特點就是和創作者深度合作,讓他們幫助我們打磨工具。 Flow 就這樣誕生了。你可以逐鏡頭提示生成影片,並且支援連貫生成,這也是「Flow」這個名字的來源。最初的版本不夠好用,電影製作人提出:他們需要逐鏡頭創作、拼接、連貫製作。於是我們做了優化。

實驗室大概同時在推進 30 個實驗專案,你去 Google 實驗室網站就能看到

主持人:我有個請求,擴大開放範圍,很多專案看起來很有意思,但每次都顯示候補名單。

James Manyeka:我們會努力的。比如 Pomello(面向傳統中小企業的 AI 行銷工具,由 Google Labs 與 DeepMind 聯合開發),面向中小企業的工具,不是那種科技新創公司,而是傳統中小企業,幫助他們快速搭建富有創意的線上展示頁面。還有 AIR Studio(面向開發者的無程式碼/低程式碼 AI 原型開發平台),面向開發者。我們希望為各類創作者,比如開發者、藝術家、電影製作人、音樂人,打造頂尖 AI 工具。

20% 的時間用來創新

主持人:有兩個產品我特別想試用,可能會成為下一個 Notebook LM:一個是 CC(基於 Gemini 的個人 AI 助理、生產力智慧代理,類似「超級版 Notion AI + 個人行程管家」),Google 內部的實驗性生產力智慧代理;另一個是 Disco(基於 Gemini 3 的生成式瀏覽器,核心能力是 GenTabs),你可以基於一堆連結生成網頁應用。比如你規劃週末活動,打開一堆網頁,它就能自動生成對應應用,比如自訂地圖,標註各個活動地點,你選定日期,它會高亮當天可用的專案。

我想問兩位:過去 Google 有所謂「20% 時間」的機制,員工可以用 20% 的工作時間做本職以外的專案,很多重磅產品比如 Gmail 就來自於此。這些實驗專案是誰做的?20% 時間是不是以某種形式回歸了?這麼多有趣的實驗,在公司內部是如何推進的?

James Manyeka:我可以先回答。這種機制實際上依然存在。回到實驗室,大概 80% 的專案來自實驗室團隊,另外 20% 就來自 20% 時間專案。

我舉個教育領域的例子,這也是 Laya 和我非常重視的方向。Google 研究的一位員工,本職工作和教育無關,但他提出一個想法:能不能讓人們用自己適合的方式學習?現在的 AI 工具已經可以支援多樣化的學習方式。這個專案最終變成了「Learn Your Way」(是 Google Labs 推出的、基於 LearnLM 的 AI 個人化學習實驗工具,核心是把靜態教材、資料變成適配年級、貼合興趣、多模態互動的學習體驗),你可以在 Google 實驗室裡找到這款實驗產品。它不是實驗室團隊做的,而是公司其他部門員工的創意。 我們持續從全公司收到各種出色創意。

另一個例子是 Co-Scientist(是 Google Research 基於 Gemini 2.0 打造的多智慧代理科研協作系統,定位是人類科學家的虛擬研究夥伴,核心是模擬「假設生成—辯論—驗證—迭代」的完整科研流程,幫研究者加速發現、突破思維局限),來自 DeepMind 和 Google 研究,是幫助科學家進行科研發現的工具,之後會放到實驗室裡測試、迭代,但它並不是在實驗室內部建構的。全公司員工產生創意的機制依然非常活躍,也帶來了很多令人興奮的創新。

Laya IbrahimDeepMind 的研究者同樣有機會建構實驗性產品。 這其實是我們文化的一部分,給大家探索的空間,並且堅持跨領域方式,不只局限於研究者,這一點非常令人興奮。我們會匯聚不同視角,解決真實挑戰。有時候甚至是用 AI 工具提升自身工作效率: 比如讓法務團隊更快審核研究論文、獲取回饋;為責任團隊做更自動化的紅隊測試;還有解讀古代文獻。

我們有一個專案,是一位研究者自主發起的探索:不只關注今天的智慧,還要挖掘被遺忘的歷史知識。他牽頭做了一個專案,不僅能鑑定泥板年代,還能補全缺失內容、進行翻譯。這就是 Project ANEKS 專案(是 Google DeepMind 的一個 AI 研究專案),專注古代文獻研究。正如 James 所說,Google 最不缺的就是聰明、有好奇心的人,而且公司文化支持這種探索。

主持人:我解釋一下我為什麼這麼關注這一點。上世紀,S&P 500 公司(美國 500 家頂尖上市公司的股票指數)的平均存續時間是 67 年,現在只有 15 年。AI 時代到來,變化會更快,創意來源、實驗和新專案的能力,對一家公司的長期存續至關重要。所以我非常關心 Google 內部是如何運作的。

Laya Ibrahim:我之前做過創投,我曾覺得創投是最了不起的地方,因為能接觸到大膽想法的創業者。但我在 Google 的感受是:創新就是日常文化的一部分,在各個部門都在發生。 只是 DeepMind 和 Google 其他部門的呈現方式不太一樣,但整個公司都在支持創新。

James Manyeka:我再補充一點。Google 的研究文化非常獨特,回到你最開始提到的貝爾實驗室,不管是 DeepMind 還是 Google 研究,我們都堅持一個理念:從研究走向現實。很多研究突破會非常快地轉化為現實影響力。 AlphaFold 就是很好的例子,它是諾貝爾獎等級的突破,而現在全球已有超過 190 個國家、350 萬研究者在使用它。還有天氣預報領域的突破,現在已經投入實際使用,我們的洪水預警系統已經覆蓋 150 個國家、20 億人。把科研突破轉化為社會影響力,是我們非常獨特的一點。

主持人:有個問題我必須問,不然觀眾會問我為什麼不問。很多年裡,外界對 Google 的印象是「不敢發布產品」。最典型的例子:Transformer 模型是 Google 發明的,而 ChatGPT 是第一個基於它的主流應用。我年底採訪過 Sam Altman,他當時說過一句很受關注的話:如果 Google 早期就重視我們,他們早就把我們碾壓了,而現在他們是強大的競爭對手。「發布產品」這件事,在 Google 內部是不是變得更重要了?把實驗推向大眾的野心是不是更強了?

James Manyeka:我認為是的,而且這是一個自然演變的過程。Google 一直在產生大量研究突破,我們始終存在一種良性的張力:產品是否已經準備好?我們並不總能做出完美判斷,但我認為這種張力是好事,是「大膽與負責並存」的體現。同時我們也意識到:很多實驗和創新,只有讓人們使用、體驗,我們才能學到東西。這回歸到科學方法。產品的紅隊測試我們做得很多,但真實用戶的使用,甚至惡意使用,都能讓我們學到更多。這就是一種演變:發布有用的產品,並從發布中學習。 我們現在常說「持續交付」Gemini 模型大概每 5 到 6 個月就會迭代新一代, 這就是你看到的變化。

AI 與教育:是助力還是隱患?

主持人:AI 與教育是你們都非常關注且投入很多的方向。你們最近的一項研究顯示,85% 的 18 歲以上學生在使用 AI,我猜剩下 15% 是沒說實話;81% 的教師表示在使用 AI,遠高於全球公眾 66% 的 AI 使用率。AI 正在對教育產生真實影響。先從你們的視角開始:這對教育整體是積極的嗎?批評聲音也很多,比如學生用 AI 作弊,教師批改的是作弊生成的作業。實際情況到底是怎樣的?

Laya Ibrahim:首先,正如 James 之前所說,這是一個非常重要的領域。我們對待它的方式和其他領域一致:既要大膽思考 AI 如何改變學習方式、釋放人類潛力,也要保持負責,識別風險並投入資源降低風險。我們在調查中還發現,約 80% 的成年學習者認為 AI 對學習有幫助,它能以適合的形式、在需要的時候提供資訊。我們重點關注的方向之一,是讓 AI 不只給出答案,而是帶你一步步拆解問題。這一切都建立在科學方法之上。

三年前,我們決定把學習當作一流的科学問題去研究:人是如何學習的?Google 內部有相關經驗和專業能力,同時全球也有大量研究者在做這件事。我們非常慎重地與教育學專家、全球教育工作者合作,推出了 Learn LM。

今年我們把這項能力全面注入 Gemini,並在 Gemini App 中推出引導式學習等功能,幫助用戶一步步拆解問題,教會你如何學習、如何分析。我自己也是十幾歲孩子的家長,經常在做「A/B 測試」。

主持人:你應該讓一個用 AI,一個不用,看看最後誰更好。

Laya Ibrahim:我會把這個加入下一輪實驗。我的一個女兒有讀寫障礙,現有教育體系並不適合她。但我發現,當她把 AI 融入學習,不管是拆解數學題,還是幫她整理混亂的思緒、形成通順的文字,她感到前所未有的自信。我還有一個身體有殘疾的妹妹,教育體系也不是為她設計的。放眼世界,太多學生因為沒有合適的技術工具而被落下。

我們的設想是:讓每一位學生都擁有個人化導師,讓每一位教師都擁有教學助手。 AI 是生產力工具,它能改變師生互動的模式。我們不是說 AI 是魔法,教師才是核心,但 AI 能解放教師,讓他們回歸人與人之間的真實互動。我們在教師生產力工具上已經看到很好的進展。我剛去北愛爾蘭,當地教師和政府合作做了試點,他們的便利貼上寫滿了收穫:平均每位教師每週節省 10 小時,多出的時間用來陪伴家人,為班裡 30 多名不同需求的學生設計教案。 這非常鼓舞人心。但我們仍處在早期階段,必須意識到這件事事關重大,關係到人的一生。幫助他們學習、打開機會,並從中學習、反哺研究,這至關重要。

James Manyeka:我補充一點。我們發現,教育領域和社會其他領域一樣:新技術到來時,不能只是簡單嫁接到現有流程裡,而是要重新設計工作流程。 舉個學習的例子:大家很擔心作弊問題。在 AI 普及的世界裡,我們或許不應該再用傳統的方式考試和評估。一些學區發現,學生使用引導式學習時,是真的在學習,知識掌握程度會提升;但如果只是為了熬夜趕作業,他們就不會認真用。於是這些學區做了實驗:增加週測。學生聽到要多考試可能會崩潰。但結果是:測試變多,學生為了備考主動使用引導式學習的時間變長,學習效果反而更好。這就是我們需要重新想像學習流程的例子,而不是把技術硬套在現有結構上。我們透過和教師、學校、學區交流,得到了很多有趣的實驗和創新結論。我們仍處在非常早期的階段,但大家對認知卸載等問題的擔憂是真實的,我們必須認真對待。

主持人:這一點我想繼續聊。和很多技術、尤其是 AI 一樣,大家擔心的是:有抱負的人會正確使用它,能力大幅提升;而用錯方式或不用的人,差距會被拉得更大。《紐約時報》最近有篇文章,不只是學生,教師也在用 ChatGPT,有些學生對此不滿。東北大學有學生發現,教授的投影片裡有拼寫錯誤、圖片裡出現多餘肢體,這些都是 AI 生成的痕跡。你如何看待這種可能加劇社會分化的問題?

Laya Ibrahim:這讓我想到當年把電�引入課堂和大學的時候。我們能從那段歷史裡吸取很多經驗。一方面,我們可以主動做一些事情;另一方面,我們也在召集各方領導者,從體系層面探討應對方式。我們把管理者聚在一起,討論在各自機構裡建立負責任使用技術的框架。

現在的情況有點混亂,大家各行其是,而我們需要一種探索性的共識:AI 不會消失,公平的使用機會和素養至關重要。有些學生為了領先而用 AI,有些學生因為害怕被視為作弊而不敢用,這就會造成分化,我們也觀察到了性別上的差異。我們能做的,是把領導者聚在一起,探討如何開啟新篇章,如何在最大化收益的同時建立護欄、降低風險。去年年底,我、James 和幾位同事共同舉辦了一場活動,分享最佳實踐,交流哪些有效、哪些無效,我們的研究者也參與其中。我們還為教師提供實操培訓,教他們負責任地使用工具。這更多是為了釋放生產力和潛力,而不是替代。激勵機制的設計也必須跟上,這一點毫無疑問。

前沿科技進展:量子運算、材料科學、氣象預測、太空計畫

主持人:請問 James:量子運算的現狀如何?它的發展速度比很多人預期的更快。

James Manyeka我們有一支頂尖的量子 AI 團隊,正在做突破性的工作。 總的來說,量子運算的進展比大眾認知的要快。量子運算的終極目標,是建構完全容錯的量子電腦,路線有很多種。主流方向是超導量子位元,也是我們團隊在做的,全球很多團隊都在研究這條路,複雜度很高,但被認為是最有希望的方向。此外還有中性原子等多種技術路線。

具體進展:底層晶片進步巨大,比如我們的 Willow 晶片,一年半前取得重大里程碑。它完成了一項叫 RCS 的基準測試,一台頂級經典超級電腦需要 100 億年才能完成,而它只用了不到 5 分鐘,還能以突破性的方式糾錯。

量子運算一直以來的另一個核心障礙是平滑糾錯:如何在擴容、增加量子位元的同時降低錯誤率。這是真正的突破,也是我們獲得年度突破獎的原因,是我們首次證明可以實現閾值以下糾錯——系統擴容,錯誤率反而下降,這正是我們想要的結果。

另一個重大突破在去年年底:之前所有的基準測試,包括我剛才說的,都只用於基準測試,沒有實際用途。而去年我們首次實現了有實際價值的運算,也就是Quantum Echoes,相關成果登上了《自然》封面。它完成了一項有用的運算:研究分子的自旋動力學,這是其他方式無法實現的。我們還和柏克萊的團隊合作,他們透過核磁共振實驗在實驗室驗證了結果。這是第一個有實用價值的量子運算案例。

綜合來看,量子運算的進展比大家以為的「還要幾十年」要快得多。未來五年左右,我們會開始看到量子運算的實用化應用,非常令人期待。

主持人:材料科學是 AI 研究中相對被忽視的領域,AI 可以透過預測技術發現新材料。Laya,介紹一下目前的進展。

Laya Ibrahim:這回到我們的核心思路:AI 能幫助我們解開哪些根源性問題、加深對世界的基礎理解,從而為整個領域打開大門。AlphaFold 就是其中之一。你提到的 AlphaGeometry(是 DeepMind 開發的、能自動解決高難度奧林匹克幾何證明題的 AI 系統,達到了國際數學奧林匹克「IMO」金牌選手的水準。),還有我們的材料科學專案,都非常令人興奮。我們把已知的 4 萬種穩定晶體,拓展到了 40 多萬種,目前正在實驗室和研究中測試。這意味著什麼?你可以想像更優質的電動車電池、超級電腦的超導體。很多突破都要依靠新材料實現。我們仍處在早期階段,但我們相信這是一個很有前景的方向,有可能改變我們的生活和工作方式。

主持人:發現新材料之後,會帶來什麼?比如像 T 恤一樣薄,但保暖性媲美冬裝的材料?

Laya Ibrahim:沒錯。你身邊的所有東西,都可以透過新材料重新想像。比如電池、電動車,如何讓車身更輕、續航更長、充電更快,突破現有物理限制。這些都有可能透過基礎材料的突破實現。

主持人:接下來是氣象預測,Google 在很多方向上都在深耕 AI 氣象。

James Manyeka我們有一個非常龐大的氣象專案,由 DeepMind 和 Google 研究共同推進。氣象預測的維度很多:普通天氣預報,下週、明天天氣如何,Graphcast(是 Google DeepMind 於 2023 年推出的、基於圖神經網路「GNN」的全球中期天氣預報 AI 模型,是氣象預測領域的里程碑式突破)來自 DeepMind,是目前業內頂尖的模型。我們還在預測其他氣象事件:季風、颶風、洪水等極端天氣。

我舉一個影響生命安全的例子:業界早就知道,如果洪水預警能提前 6 天以上發出,就能挽救生命。聯合國估計,這樣能減少一半的災害損失。這一直是一個難題。兩年半前,我們的團隊建構了預測河流洪水的模型,在孟加拉試點成功。如今,我們的洪水預測已經覆蓋 150 個國家、20 億人。這就是從突破性創新到社會實際價值的典型案例。我們還和國家颶風中心合作,可以提前 15 天預測颶風的 50 條不同路徑,並且成功追蹤了颶風 Melissa。這類資訊對災害應急意義重大,也能用於航班調度等日常場景。

主持人:最後一個專案:Project Suncatcher(Google 的「太空 AI 資料中心」計畫,在地球軌道部署由太陽能衛星組成的星座,搭載 TPU,利用太空無限太陽能進行 AI 運算)是什麼?

James Manyeka:這是典型的 Google 式瘋狂構想。我們思考:今天如何訓練 AI 系統?100 年之後,考慮到訓練模型需要的算力和能源,會怎麼做?100 年後,我們肯定會在太空訓練,畢竟太陽的能量是地球的百萬億倍,而且 24 小時不間斷。為什麼不現在就朝著這個未來邁進? Project Suncatcher 專案就是這樣一個 Google 式登月計畫。

我們已經完成了幾個關鍵里程碑,計畫把 TPU,一款專用 AI 晶片,送入太空進行訓練。我們真的要把晶片送上太空。第一個里程碑是我們希望 2027 年在太空完成若干次訓練任務。這就是 Project Suncatcher,一步步走向那個未來。有人會聯想到 Dyson Sphere(是物理學家弗里曼・戴森在 1960 年提出的科幻級巨型工程構想,核心是用巨大結構完全包裹恆星,捕獲其幾乎全部能量,是 II 型文明的標�性能源方案),利用太陽系、甚至銀河系的能量。一位前 Google 員工曾提出:如果要走向 AGI,地球可能會佈滿資料中心;但如果把資料中心放到太空,地球就能留給人類生活。 敬請關注,我們下一個里程碑在 2027 年,希望能完成太空訓練。

參考連結:

https://www.youtube.com/watch?v=MkZRak7lVcA

聲明:本文為 AI 前線整理,不代表平台觀點,未經許可禁止轉載。


分享網址
AINews·AI 新聞聚合平台
© 2026 AINews. All rights reserved.