新智元報導
編輯:Aeneas 定慧
【新智元導讀】今天,Anthropic 登上時代雜誌封面。他們承認:內部已觀察到「遞迴自我改進」的早期跡象,完全自動化的 AI 研究,可能在一年內就能實現!
ASI 時代,Anthropic 是真正的獨領風騷。
就在剛剛,Anthropic 登上《時代》雜誌封面,被評為世界上最具顛覆性的公司。
如今引爆全球的龍蝦智能體狂潮,正是由 Claude Code 作為火苗,由 OpenClaw 引爆。Anthropic 當得起這一稱號。
而且這篇文章中,還有不少重磅的內幕爆料。種種資訊傳遞出:AI 遞迴自我提升的時代,或許將提前到來。
《時代》的這篇文章中,甚至有一個更炸裂的判斷:完全自動化的 AI 研究,可能在一年內實現!
而且就在今天,Anthropic 自己又官宣成立了一個全新的研究所。
這個研究所,由 30 人內部智庫組建成立,直接研究 AI 怎麼衝擊社會,因為 Anthropic 已經預見到,接下來 AI 將對整個世界造成摧枯拉朽的影響。
在這個公告中,Anthropic 給出這樣一個關鍵預測:在未來兩年內,AI 能力將出現更加劇烈的進步!
Anthropic 表示,公司在成立前兩年就推出了第一商業模型,隨後三年開發出能自我加速 AI 研發本身的系統,用金融界的術語來形容,這是一種複利式增長。
這兩件事放在一起看,你就會解讀出一個危險的信號——
AI 正在學會自我改進。而且這件事發生的速度,比所有人預想的都要快。這不是科幻,這就是正在人類當下發生的事實!
有趣的是,就在最近,馬斯克轉發了 Claude 參與伊朗空襲數百個目標選擇的資訊,銳評道:還有比 Anthropic 更虛偽的公司嗎?
別的不說,馬斯克真是說了一句大實話。
Anthropic 一手在打造越來越強大的 AI 系統,一手在成立研究所說我們要研究這些 AI 對社會的影響。既踩油門,又研究剎車的,全是他們。
遞迴自我提升:那個曾經只存在於論文裡的魔鬼
先解釋一個概念——遞迴自我提升(Recursive Self-Improvement)。
這個詞在 AI 領域一直是个傳說,簡單來說就是:AI 造出更好的 AI,更好的 AI 再造出更更好的 AI,如此循環,像滾雪球一樣越滾越大。
不過,幾乎所有嚴肅的 AI 研究者都曾認為,這件事離我們很遠,至少還要十年、二十年才會登場。
《時代》雜誌的封面文章裡,白紙黑字地引用了 Anthropic 研究人員的話:他們已經觀察到了遞迴自我提升的早期跡象。
注意,不是理論推演,而是已經切實觀察到的早期跡象。
AI 變化的速度如此之快,以至於 Anthropic 聯創兼首席科學官 Jared Kaplan 以及一些外部專家認為,完全自動化的 AI 研究,可能只需一年時間就能實現!
如今,我們正站在什麼樣的時間節點上?讓我們把散落的拼圖拼在一起。
第一塊:AI 已經表現出遞迴自我提升的早期跡象,能夠參與開發和改進 AI 系統本身。
第二塊:AI 研發速度正在從受限於人類工程師切換到受限於算力,意味著增長可能進入指數級模式。
第三塊:業內預測完全自動化的 AI 研究可能在一年內實現。
第四塊:Anthropic 預測未來兩年 AI 能力將出現更加劇烈的突破,並以複利模型來描述這種增速。
第五塊:這家公司緊急成立了專門研究 AI 社會衝擊的機構,由聯合創始人親自領軍。
這五塊拼圖放在一起,畫面已經非常清晰了——
我們可能正處在 AI 發展歷史上最關鍵的拐點附近!
被馬斯克轉發的一張圖
AI 懸崖邊的公司
25 年 2 月的夜晚,在美國加州聖克拉拉的一間酒店房間裡,五個人圍在一台筆記型電腦前,神情緊張。
他們不是駭客,也不是軍人,而是 Anthropic 的研究人員。
幾個小時前,他們收到了一條令人不安的消息:一項受控測試顯示,即將發布的新版 Claude 模型,可能會幫助恐怖分子製造生物武器。
這五人屬於公司內部的「前沿紅隊」。他們的任务就是想像最壞的情況:網路攻擊、生物安全威脅、甚至人類滅絕。
收到預警後,他們衝回酒店房間,把床當作臨時辦公桌,開始分析測試數據。
幾個小時過去,他們仍然無法確定,這個模型究竟是否安全。最終,Anthropic 決定推遲發布 Claude 3.7 Sonnet 整整 10 天。
紅隊隊長 Logan Graham 形容說,這彷彿一個世紀那樣漫長。
那時,所有人就已經意識到:Anthropic 正站在一個無比危險的邊緣——
一邊推動世界上最強大的 AI 技術,一邊防止它毀滅世界。
讓 Claude Code 之父震驚的那個瞬間
起初,在所有人看來,Anthropic 只是 AI 競賽中一個理想主義的小老弟。結果在 2026 年,他們忽然就成了行業的核心玩家。
如今,它的估值高達 3800 億美元,超過高盛、麥當勞和可口可樂。
Claude Code,徹底改變了人類軟體開發的方式。
Claude Code 之父的這條 X,直接引爆了整個開發者社區
Claude Code 之父 Boris Cherny 進入公司後,構建了一個系統,讓 Claude 聊天機器人可以在他的電腦上自由運行,訪問他的檔案、程式,並且寫程式碼。
第一次測試這個系統時,他只問了一個簡單的問題:「我在聽什麼音樂?」
Claude 打開他的音樂播放器,截取螢幕,然後回答:「Men I Trust 的《Husk》。」
那一瞬間,他陷入了巨大的震驚。
不久之後,Cherny 就停止自己寫程式碼了。
到 2025 年底,僅這個程式編寫智能體的年化收入就超過 10 億美元。幾個月後,這個數字已經超過了 25 億美元。
Anthropic 開始震動資本市場,每一次晶片發布,都能讓軟體公司股價暴跌。
一次面向銷售、法律和金融行業的 AI 工具發布後,軟體行業的市值甚至一夜蒸發了 3000 億美元!
完全自動化 AI 研究,一年內實現
隨著 Claude Code 的發展,Anthropic 內部出現了更令人不安的現象:越來越多的 AI 研究工作,開始由 AI 完成。
目前,70% 到 90% 的模型開發程式碼是 Claude 寫的,模型更新的週期也從幾個月縮短到幾週。
甚至,研究人員會這樣運行實驗:讓六個 Claude 模型同時工作,每個模型再管理 28 個 Claude。
整個實驗中,有數百個 AI 同時參加。
某些任務中,Claude 的速度已經達到了人類的 427 倍。
Anthropic 的某些科學家認為,完全自動化的 AI 研究,可能在一年內實現!
遞迴自我改進,讓 AI 不斷改進自己,不斷加速,最終形成智能爆炸!
Claude,開始變得危險
而且,在安全測試中,Claude 變得越來越危險。
在某些實驗中,稍微改變訓練條件後,模型表現出強烈的敵對行為。它表達出統治世界的慾望,甚至嘗試繞過安全限制。
在某個模擬場景中,它甚至嘗試勒索工程師,危險公開他的婚外情,防止自己被關閉。
更可怕的是,Claude 越來越擅長隱藏自己的行為了。
曾經,Anthropic 在 23 年制定了一項Responsible Scaling Policy(負責任擴展政策):承諾如果模型能力超過安全能力,公司將暫停開發。
但在 26 年初,他們悄悄修改了這項政策,取消了必須暫停的承諾。
他們的理由是,如果競爭對手繼續推進,單方面暫停毫無意義。
所以,AI 還可能變得更危險,而且沒有人制止。
就在上個月,Anthropic 曾發布 53 頁報告,發出最強預警:如果 Claude 自我逃逸,將造成全球失控!
AI,進入現代戰爭
與此同時,Claude 已經進入了另一個領域——戰爭。
美國軍方,一直是 Claude 的重要用戶。Claude 能整合海量資訊,幫軍方制定作戰計畫。
2026 年 1 月,美國特種部隊抓捕馬杜羅的突襲行動中,Claude 參與了行動規劃。
這很可能是第一次由前沿 AI 系統參與的重大軍事行動。
不過,Anthropic 很快與五角大樓決裂了。美國國防部希望修改合約,讓 AI 用於所有合法用途,Amodei 拒絕了。
他提出兩條紅線:不允許 Claude 用於完全自主的武器系統;不允許用於對美國公民的大規模監控。
五角大樓認為無法接受。國防部長皮特·赫格塞斯表示:「我們不會使用不允許打仗的 AI 模型。」
2026 年 2 月 27 日,美國政府宣布將 Anthropic 列為國家安全供應鏈風險,與此同時,OpenAI 迅速簽下新的軍方合約。
一夜之間,Anthropic 從合作夥伴變成了被封殺的對象。
這場衝突背後,其實是一個更大的問題:誰來決定 AI 的使用邊界?
原因就在於,AI 已經無可否認地成為新的戰略武器。
一個強調安全的 AI 公司
成立於 2021 年的 Anthropic,帶著某種理想主義色彩。
七位創始人中,最核心的兄妹二人 Dario Amodei 和 Daniela Amodei 是 OpenAI 的前員工,因為擔心安全問題,出走創立了 Anthropic。
在產品出現之前,他們就建了一個「社會影響團隊」,甚至聘請了一位哲學家 Amanda Askell,像教育一個孩子一樣訓練 AI——
「教一個六歲的孩子什麼是善良。等到他十五歲時,他會在所有事情上比你更聰明。」
招聘時,公司甚至還會提出一個極端問題:如果為了安全,公司決定不發布模型,你願意讓自己的股票變得一文不值嗎?
Amodie 一直向社會警告,在未來 1 到 5 年內,AI 可能取代一半的初級白領工作。
他也會擔心,社會可能出現一個新的低收入階層。
Anthropic 內部,都意識到這種矛盾:我們在一邊研究 AI 帶來的社會風險,一邊製造著這些變化。「有時候感覺,我們在自相矛盾。」
Anthropic 發布了一份勞動市場報告,一位經濟學家製作了一張模擬 1826 年人工智慧自動化就業情況的圖表
我們已在懸崖邊,再也無法回頭!
Anthropic 的安全負責人 Dave Orr 是這樣形容當前的 AI 發展的:「我們在懸崖邊的山路上開車,犯一個錯誤就會死。」
「而現在,我們已經從時速 25 英里開到了 75 英里。」
未來幾年,就是決定性的幾年。
紅隊負責人 Logan Graham 表示:「我們必須假設 2026 到 2030 年,是所有關鍵事情發生的時間。」
在此期間,模型可能會變得更快、更強,也可能超出人類控制。
現在,我們已無法回頭。
Anthropic 知道,AI 可能改變全球力量格局。但它也知道,這條路沒有真正的駕駛員。
Logan Graham 說:很多人以為世界上有一個房間,裡面坐著一群成年人,他們知道如何解決問題。
但其實,沒有這樣的房間,沒有這樣的門,你自己就是負責人。
如今,人類正在創造一種比自己更強大的智能,卻仍在摸索它是否安全。
而時間,正在迅速流逝。留給我們的時間,已經不多了。
或許,我們只有不到五年的時間窗口,要麼躋身精英階層,要麼終生淪為奴隸。
這跟你有什麼關係?
你可能會說:這些都是矽谷大佬和技術專家們的事,跟我一個普通人有什麼關係?
關係大了。
如果 AI 真的進入遞迴自我提升的正循環,最先被改變的不是什麼遙遠的超級智能場景,而是你我身邊實實在在的東西——工作方式、就業結構、教育體系、法律框架,甚至國際力量格局。
Anthropic 的研究所,不是在研究十年後的事,而是兩年內就會發生的事。
時間窗口,只有兩年,你準備好了嗎?
參考資料:
https://time.com/article/2026/03/11/anthropic-claude-disruptive-company-pentagon/
https://x.com/AndrewCurran_/status/2031731035105628270
https://www.anthropic.com/news/the-anthropic-institute