Anthropic CEO:大型語言模型的資料瓶頸已不復存在,模型正在自我訓練

Anthropic 執行長 Dario Amodei 剛剛透露,整個產業一直擔憂的大型訓練資料瓶頸,其實已經不存在了。多年來,這個產業癡迷於爬取開放網路——更多資料、更多文本、更多人類產出來餵養模型。但 Amodei 說:「我認為資料已經不再是最核心的東西了。」

這是一次根本性的轉變。Amodei:「靜態資料正變得越來越不重要。我們今天使用的大量資料,是模型在其中訓練的強化學習環境——是模型自己生成的動態資料。」不是爬取的,不是授權的,不是人類寫的。而是模型透過純粹的試錯,自己生成的。

當你在複雜數學或智能體程式設計上訓練模型時,你不是塞給它一本教科書,而是給它一個環境。模型自己去實驗、失敗、調整、再嘗試。Amodei:「給它一些數學題,模型自己去嘗試解題。」它生成自己的經驗,數百萬次疊代,每一次都在上一次的基礎上累積。無需人類介入。這徹底擊碎了「大型語言模型將撞上資料牆」的整套敘事。

你無法透過鎖死版權來遏制競爭對手,無法透過設置付費牆來減緩這場競賽。當模型透過自己的合成經驗學習時,開放網路已變得無關緊要。唯一真正剩下的瓶頸,是算力。

而這正是地緣政治博弈變得無比關鍵的地方。贏得算力競賽的國家,不只是造出更聰明的模型——它將造出能自我生成智慧、不斷自我複利、疊代突破人類知識一切邊界的模型。我們已不再用過去的方式訓練大型語言模型。


分享網址
AINews·AI 新聞聚合平台
© 2026 AINews. All rights reserved.