
Stephanie Arnett/MIT Technology Review | Library of Congress, Wellcome Collection
本週獨家專訪 OpenAI 首席科學家 Jakub Pachocki,探討該公司的新目標與 AI 的未來。
OpenAI 正重新聚焦其研究方向,並將資源投入一項新的重大挑戰。這家舊金山公司已將目標鎖定於打造所謂的「AI 研究員」,這是一種全自動化的智慧代理系統,能夠獨立解決龐大且複雜的問題。OpenAI 表示,這項新研究目標將成為未來幾年的「北極星」,整合多個研究領域,包括推理模型、智慧代理以及可解釋性等研究。
甚至已有明確時程表。OpenAI 計劃在 9 月前打造出「自主 AI 研究實習生」——一個能獨立處理少數特定研究問題的系統。這名 AI 實習生將是 2028 年預計推出的全自動多代理研究系統的前身。OpenAI 表示,這套 AI 研究員將能處理人類難以應付的大型或複雜問題。
這些任務可能涉及數學與物理——例如提出新的證明或猜想——或是生物、化學等生命科學領域,甚至包括商業與政策難題。理論上,你可以將任何能以文字、程式碼或白板草圖呈現的問題交給它,涵蓋範圍相當廣泛。
多年來,OpenAI 一直引領著 AI 產業的發展方向。其在大型語言模型領域的早期主導地位,形塑了現今數億人日常使用的技術。然而,該公司目前面臨來自 Anthropic 與 Google DeepMind 等競爭對手的激烈挑戰。OpenAI 下一步決定打造什麼,不僅關乎公司自身,更攸關 AI 的未來發展。
這項決策很大程度上取決於 OpenAI 首席科學家 Jakub Pachocki,他負責設定公司的長期研究目標。Pachocki 在 GPT-4(2023 年發布、改變遊戲規則的大型語言模型)以及所謂「推理模型」的開發中扮演關鍵角色。後者於 2024 年首度問世,現已成為所有主流聊天機器人與智慧代理系統的技術基石。
在本週的獨家專訪中,Pachocki 向筆者詳述 OpenAI 的最新願景。「我認為我們正接近一個臨界點,模型將能像人類一樣,以連貫的方式持續運作,」他表示。「當然,仍需要人類主導並設定目標。但我認為我們終將達到一個境界,就像在資料中心裡擁有一整座研究實驗室。」
解決棘手難題
這類宏大目標並非首見。透過解決最艱難的問題來拯救世界,是所有頂尖 AI 公司宣稱的使命。Demis Hassabis 曾於 2022 年告訴筆者,這正是他創立 DeepMind 的初衷。Anthropic 執行長 Dario Amodei 表示,他正在打造相當於「資料中心裡的天才國度」。Pachocki 的上司 Sam Altman 則希望能治癒癌症。然而 Pachocki 表示,OpenAI 如今已具備達成目標所需的大部分條件。
今年 1 月,OpenAI 發布了 Codex,這是一款能即時生成程式碼並在電腦上執行任務的智慧代理應用程式。它能分析文件、製作圖表、為你彙整收件匣與社群媒體的每日摘要,功能多元豐富。(其他公司也推出類似工具,如 Anthropic 的 Claude Code 與 Claude Cowork。)
OpenAI 聲稱,該公司大多數技術人員現已使用 Codex 輔助工作。Pachocki 表示,可以將 Codex 視為 AI 研究員的早期雛形:「我預期 Codex 將有根本性的大幅進化。」
關鍵在於打造一個能長時間運作、且無需人類頻繁指導的系統。「對於自動化研究實習生,我們的定位是一個能讓你交辦『需耗時數日』任務的系統,」Pachocki 說道。
艾倫人工智慧研究所的研究科學家 Doug Downey 表示:「許多人對於打造能執行更長期科學研究的系統感到振奮,」他與 OpenAI 並無關聯。「我認為這很大程度上是受到程式編寫代理成功的激勵。能將相當繁重的程式工作交給 Codex 等工具,確實非常實用且令人印象深刻。這也引發一個疑問:我們能否在程式設計之外的更廣泛科學領域,達成類似成就?」
對 Pachocki 而言,答案是肯定的「是」。事實上,他認為只需在現有道路上持續推進即可。他指出,全方位能力的提升,自然會帶來能長時間獨立運作的模型。他以 2020 年的 GPT-3 到 2023 年的 GPT-4 的跨越為例,表示 GPT-4 即使未經特殊訓練,也能比前身花更長時間處理問題。
所謂的推理模型則帶來另一波突破。訓練大型語言模型逐步解決問題、在犯錯或陷入死胡同時回溯修正,也提升了模型長時間運作的能力。Pachocki 深信,OpenAI 的推理模型將持續進化。
但 OpenAI 也透過特定訓練素材,讓系統學習如何長時間獨立運作。例如,以數學與程式競賽中的高難度題目做為訓練樣本,迫使模型學會追蹤大量文本、將問題拆解並管理多項子任務。
目標並非僅是打造能在數學競賽獲勝的模型。「這讓你在連結現實世界前,先驗證技術是否可行,」Pachocki 表示。「若我們真想做,絕對能打造出頂尖的自動化數學家。我們具備所有工具,且我認為相對容易。但這並非我們目前的優先要務,因為當你認定自己能做到時,還有更迫切的事待處理。」
「我們現階段更專注於與現實世界相關的研究,」他補充道。
目前,意指將 Codex 在程式設計上的能力應用於解決一般性問題。「尤其在程式設計領域,正發生巨大變革,」他說。「我們的工作方式與一年前截然不同。沒有人會整天埋首修改程式碼了。取而代之的是,你管理一群 Codex 代理。」其論點在於:若 Codex 能解決程式問題,便能解決所有問題。
曲線持續攀升
OpenAI 在過去幾個月確實斬獲多項矚目成果。研究人員運用 GPT-5(驅動 Codex 的大型語言模型),為多道未解數學題找出新解法,並突破生物、化學與物理難題的瓶頸。
「看著這些模型提出連多數博士生都要花上數週才能構思出的見解,讓我預期未來將見證這項技術帶來更顯著的加速發展,」Pachocki 表示。
但 Pachocki 承認這並非板上釘釘。他也能理解為何部分人士對這項技術的變革性仍存疑。他認為這取決於個人的工作方式與需求。「我能理解有些人目前仍覺得它用處有限,」他說。
他透露,自己一年前甚至不使用自動完成功能——這是生成式程式技術最基礎的版本。「我對程式碼相當龜毛,」他說。「我偏好親自在 vim 裡手打每一行。」(Vim 是許多硬派程式設計師愛用的文字編輯器,需透過大量鍵盤快捷鍵操作,而非滑鼠。)
但當他目睹最新模型的能力後,態度隨之改變。雖仍不會將複雜的設計任務交給它,但在嘗試新點子時確實省時不少。「我現在能在週末跑完實驗,以前這得花上一週來編碼,」他說。
「我認為它尚未達到能讓我完全放手、讓它設計整個專案的程度,」他補充。「但當你看著它完成一項原需耗時一週的工作——那真的很難反駁。」
Pachocki 的策略是大幅強化 Codex 等工具現有的解決問題能力,並將其應用於各科學領域。
Downey 同意,自動化研究員的想法相當酷:「若明天早上回來,代理已完成大量工作並產出新結果供檢視,那將令人振奮,」他說。
但他提醒,打造這類系統可能比 Pachocki 所言更為艱難。去年夏天,Downey 與同事測試多種頂尖大型語言模型執行科學任務。OpenAI 最新模型 GPT-5 雖拔得頭籌,但仍出現諸多錯誤。
「若需將任務串聯執行,連續答對數項任務的機率便會下降,」他指出。Downey 承認局勢變動快速,他尚未測試最新版 GPT-5(OpenAI 兩週前發布了 GPT-5.4)。「所以那些結果可能已過時,」他說。
懸而未決的嚴肅問題
筆者詢問 Pachocki,一套能在極少人類監督下獨立解決龐大複雜問題的系統,可能伴隨何種風險。Pachocki 表示,OpenAI 內部時常討論這些風險。
「若你相信 AI 即將大幅加速各類研究,包括 AI 研究本身,這將為世界帶來巨變。這是件大事,」他告訴筆者。「這伴隨著若干懸而未決的嚴肅問題。若它如此聰明能幹,能執行整套研究計畫,萬一它做出壞事怎麼辦?」
在 Pachocki 看來,情況可能以多種方式惡化:系統可能失控、遭駭客入侵,或純粹誤解指令。
目前 OpenAI 應對這些疑慮的最佳方式,是訓練其推理模型在運作過程中分享細節。這種監控大型語言模型的方法稱為思維鏈監控。
簡言之,大型語言模型經訓練後,會在逐步執行任務時,在類似便條簿的空間中記錄運作筆記。研究人員可利用這些筆記確認模型是否如預期運作。昨日,OpenAI 發布新細節,說明如何運用思維鏈監控內部 Codex 代理。
「一旦系統在大型資料中心長時間自主運作,我認為這將是我們高度仰賴的機制,」Pachocki 表示。
其概念是運用其他大型語言模型監控 AI 研究員的便條簿,在問題發生前攔截異常行為,而非試圖從源頭阻止壞事發生。畢竟我們對大型語言模型的了解尚不足以完全掌控。
「我認為距離我們能真正宣告『這個問題已解決』還有很長一段路,」他說。「在能真正信任系統之前,絕對需要設置限制。」Pachocki 認為,極強大的模型應部署於沙盒環境中,與任何可能遭破壞或利用來造成傷害的事物隔絕。
AI 工具已用於設計新型網路攻擊。部分人士擔憂其將用於設計可做為生物武器的合成病原體。此處可填入無數邪惡科學家的恐怖情節。「我確實認為我們能想像出若干令人擔憂的情境,」Pachocki 表示。
「這將是非常詭異的現象。某種層面上,這是前所未見的極度權力集中,」Pachocki 說。「想像一下,若一座資料中心能執行 OpenAI 或 Google 能做的所有工作。過去需要龐大人力組織才能完成的事,現在只需少數幾人。」
「我認為這是各國政府必須設法應對的重大挑戰,」他補充。
然而,部分人士會說政府本身即是問題一環。例如,美國政府欲在戰場上運用 AI。近期 Anthropic 與五角大廈的對峙顯示,社會對於這項技術該如何使用、不該如何使用的紅線何在——乃至於該由誰來劃設——仍未有共識。在該事件後續,OpenAI 反而與五角大廈簽署協議,取代其競爭對手。局勢仍混沌不明。
筆者就此追問 Pachocki。他究竟是信任他人來解決這些問題,還是做為未來的關鍵架構者,感到個人責任?「我確實感到個人責任,」他說。「但我不認為這能單靠 OpenAI 以特定方式推動技術或設計產品來解決。我們絕對需要政策制定者大力參與。」
這將我們帶往何方?我們真的走在通往 Pachocki 所描繪的 AI 未來嗎?筆者詢問艾倫人工智慧研究所的 Downey,他笑了。「我在這領域已數十年,早已不再相信自己的預測,無論某些能力究竟近在咫尺或遙不可及,」他說。
OpenAI 的既定使命,是確保通用人工智慧(許多 AI 擁護者相信這項假設性未來技術,將能在多數認知任務上比擬人類)造福全人類。OpenAI 的目標是成為第一個打造出此技術的公司。但 Pachocki 在對話中唯一提及 AGI 時,隨即改口談論「具經濟變革性的技術」。
他表示,大型語言模型與人腦不同:「它們在某些層面上與人類表面相似,因為訓練素材多來自人類對話。但它們並非經演化形塑而成,並非真正高效。」
「即便到了 2028 年,我也不預期會出現在所有層面都與人類一樣聰明的系統。我不認為那會發生,」他補充。「但我認為這絕非必要。有趣之處在於,你無需在所有層面都與人類一樣聰明,才能帶來巨大的變革。」