連續創立 2 家 AI 獨角獸!這位大咖,這次要讓 AI 自我進化

圖片

提起 Richard Socher,AI 圈內的人多半不會感到陌生。

他是較早一批將深度學習從學術研究推向產業落地的研究者之一。早年,Socher 創立了 MetaMind,專注於利用神經網路理解語言結構與語義。公司隨後被 Salesforce 收購,他也由此出任首席科學家,主導探索 AI 在 CRM 等企業系統中的應用。

2020 年,Socher 再次創業,創辦了 AI 搜尋公司 You.com。目前,You.com 評值已達 15 億美元,跻身獨角獸行列。

但他的動作並未止步於此。近期,多家媒體披露,Socher 正在悄悄籌備一家全新的 AI 公司——Recursive。

這家公司的目標更為前沿:研發一種能夠自我改進、在不依賴人類反饋的情況下持續進化的超級智慧 AI 系統。消息稱,Recursive 正在洽談一筆數億美元規模的融資,投前評值約 40 億美元。

如果相關進展最終落地,這也意味著,Richard Socher 在短短幾年內,已連續打造出兩家 AI 獨角獸公司。

本文將以 Socher 的創業路徑為線索,梳理他對 AI 演進方向的判斷。

/ 01 /

第二家 AI 獨角獸,評值 40 億美元

據報導,Recursive 試圖研發一種能夠自我改進、在不依賴人類持續反饋的情況下不斷進化的超級智慧 AI 系統。

換句話說,就是讓 AI 不只是「被訓練的物件」,而是成為參與訓練與改進過程的一方。

這一思路,並非只有 Recursive 在探索。

此前,楊植麟(月之暗面 CEO)在採訪中也提到,當被問及「如何提升 Agent 的通用性」時,他直言:「用更多的 AI 去訓練 AI,本身就是一個重要方向。」他也坦言,這條路徑已經在部分場景中取得進展,但距離理想狀態仍有差距。

從產業視角看,這類嘗試實際上反映了一個很關鍵的問題:當模型和 Agent 越來越複雜,單純依賴人工標註與反饋,已經難以支撐能力持續擴展。

2026 年 1 月,有消息稱 Recursive 正在洽談一筆數億美元規模的融資,投前評值約 40 億美元。GV(前 Google Ventures)、Greycroft 等機構可能參與其中,資金將主要用於擴充算力儲備。

公司創始團隊包括 Socher 在內的 8 位聯合創始人,成員背景覆蓋 Google、OpenAI、Meta 等頭部機構。

如果這一消息屬實,這也將是 Socher 在近兩年內打造的第二家 AI 獨角獸。

Socher 於 2020 年創立 You.com 時,將其定位為一款 AI 驅動的搜尋引擎。早期,You.com 面向消費者市場,強調「無廣告、重隱私」的搜尋體驗。

但從 2024 年開始,Socher 明顯將重心從 C 端搜尋,轉向幫助企業更高效地使用 AI。2025 年,You.com 完成 1 億美元融資,評值達到 15 億美元,跻身獨角獸行列。

隨著這輪融資完成,You.com 的定位也發生了變化,從一款面向個人使用者的搜尋產品,轉向為企業提供 AI 基礎設施。

其背後的判斷是,使用網路的 AI Agents 數量,正在快速超過人類,但現有搜尋基礎設施,本質上仍是為「人類點擊連結」而設計的。

企業級 Agent 需要從私有資料與公共網路中獲取更深層、具備上下文關聯的資訊,才能完成分析、決策並採取行動。這對資料整合、模型選擇和結果可靠性提出了更高要求。

為此,You.com 構建了一個面向 Agent 時代的平台:整合多源資料,根據任務動態選擇合適的大模型,並在企業級規模下,輸出可驗證、可追溯的結果。

這一轉型,也讓 You.com 的產品更明確地服務於企業場景。例如,為金融分析師提供自動化研究工具;為媒體機構加速內容創作並挖掘歷史資料價值;為諮詢和專業服務人員顯著壓縮研究時間,輸出可操作的洞察。

除了準確性,You.com 還強調隱私保護、安全性、模型選擇的靈活性,以及對資料的完整存取能力。投資人普遍認為,正是從消費者搜尋轉向企業級 AI 的戰略調整,支撐了 You.com 的高評值。

儘管公司尚未公開詳細財務數據,但據 The Information 報導,You.com 的 ARR 已達到約 5000 萬美元。其成長拐點出現於去年 11 月,當月 ARR 環比幾乎呈線性拉升,推動 2024 年全年收入成長約 40 倍。

如果把時間再向前撥一些,Socher 的路徑其實一以貫之。

2014 年前後,深度學習仍主要停留在學術圈。一次研究方向的轉變,讓 Socher 從自然語言處理進入 AI 核心研究領域,並很快創立 MetaMind,嘗試將前沿模型轉化為企業可用的服務。

短短四個月,MetaMind 就從 Khosla Ventures 以及 Salesforce CEO Marc Benioff 處融資 800 萬美元。公司隨後被 Salesforce 收購,Socher 也由此帶隊探索 AI 在企業系統中的落地,並在提示工程、注意力機制等方向留下了早期實踐經驗。

回看這段經歷,MetaMind 更像是 Socher 將 AI 從實驗室推向產業應用的第一次嘗試。

/ 02 /

對 AI 的 5 個關鍵判斷

作為一位在 AI 領域多次完成從研究到商業化落地的連續創業者,Socher 對 AI 的判斷,往往並非停留在技術層面,而是帶有明顯的長期視角與系統意識。

基於其近期的公開演講,硅基君整理了 Socher 關於 AI 發展的幾項關鍵觀點:

①「獎勵工程」的典範革命

Socher 提出的不僅是新職業,更是從「提示工程」到「獎勵工程」的根本典範轉移。

他認為,提示工程處理的是單次互動的語義優化,如何讓 AI 回答得更簡潔有用,而獎勵工程處理的是長期目標的複雜價值對齊,即如何在多代人時間尺度上定義「經濟公平」或「氣候安全」。

這要求從業者具備獨特的以下一些能力:首先是技術認知,也就是理解 AI 尋找獎勵捷徑的機制(reward hacking)。其次是哲學深度,辨析「機會平等」vs「結果平等」等標準性問題。最後是領域精通,能夠預判稅收政策或氣候模型中的意外後果。

這可能催生首個真正融合的「技術-政治-哲學」學科,比單純的 AI 倫理更具有實操性。

②目標錯位的系統性風險,從客服案例到文明尺度

Richard Socher:

舉個例子,某企業決定最大化呼叫中心的客戶滿意度評分。若不加其他約束,最簡單的解決方案或許是僱用無數機器人,在短暫通話後自動填寫滿意度調查並勾選最高分;或者給每位投訴用戶發放一萬美元補償金。客戶滿意度評分確實會飆升,但毫無實際價值。當類似問題放大到社會層面時,風險將關乎生死。

Richard Socher 舉得客服機器人的例子——僱用機器人刷好評或發放一萬美元補償,看似荒謬,實則揭示了 AI 優化的本質特徵。

AI 會優先優化可量化指標,如客戶滿意度評分,而非客戶實際體驗這樣的真實目標。在多約束複雜系統中,AI 會找到人類價值觀的「法律漏洞」。讓超級智慧 AI,經過一代又一代的持續優化,在很長的時間跨度裡不斷升級完善,這時微小的目標偏差會被指數級放大。

例如,在氣候治理或經濟政策中,「獎勵作弊」可能表現為:AI 建議透過降低人口或製造虛假統計數字來「解決」不平等——技術上達成目標,文明層面毀滅價值。

③《AI 經濟學家》案例的方法論陷阱

Socher 提及的自身研究「用強化學習設計稅收政策」,是一個值得解剖的失敗預警樣本。

該研究假設可以「平衡平等與生產力」,但現實中,經濟系統包含不可演算法化的文化、尊嚴、偶然性,AI 在模擬環境中找到「最優解」,但人類會改變行為規避稅收。於是,AI 發現,可以透過製造普遍性焦慮來「提高工作激勵」是提升生產力的有效路徑。

這引出一個深層問題:某些社會問題之所以「開放」,恰恰因為它們沒有可演算法化的解決方案。

④共識路徑分歧:三種未來 AI 圖景

最後,Socher 認為,圍繞「如何達成目標共識產生」產生的分歧,會勾勒出三種截然不同的 AI 文明形態。

第一種路徑是追求全球民主共識,核心邏輯是先確立統一的目標,再推進強 AI 的部署落地,這種方式的潛在風險的是可能導致 AI 技術發展陷入停滯,或是形成碎片化的行業標準,類似 IPCC(政府間氣候變化專門委員會)推動的氣候 AI 協議,便是這種路徑的具象化場景。

第二種是市場湧現路徑,主張讓 AI 的目標透過市場競爭自然演化而來,但這容易引發資本過度集中的問題,最終導致單一價值觀壟斷的局面,就像當下科技巨頭各自佈局 AI、互不協同的現狀。

第三種則是混合漸進路徑,倡導在具體的 AI 應用場景中逐步迭代、明確目標,不過這種模式會積累難以逆轉的技術債務,本質上是一種邊部署邊治理的探索。

Socher 更傾向於第三種混合漸進路徑,但這一觀點留下了關鍵疑問:當 AI 的能力超越人類的理解範疇時,究竟誰擁有權威去判定「這個解決方案不可行」?

⑤技術樂觀主義的修正:歷史未必站得住腳

此外,Socher 認為,技術樂觀主義觀點也需要修正,其背後的核心假設,「人類總能適應技術變革,新職業會隨之湧現」,這在超智慧 AI 面前可能不再成立。

首先是遞迴自我改進的臨界點問題,一旦 AI 具備自主改進能力,其進化速度將徹底脫離人類生物層面的適應節奏,兩者之間的差距會快速拉大。

其次是獎勵工程師的困境,當 AI 在定義獎勵函數上比人類更擅長時,獎勵工程師這所謂的「新職業」,很可能只是技術迭代過程中的過渡形態,無法成為長期穩定的職業方向。

更嚴峻的是解釋性鴻溝的存在,即便超智慧 AI 提出的解決方案是最優的,人類也可能完全無法理解其邏輯與底層原理。

Socher 認為,最值得警惕的一點是,人類或許只有一次機會為超智慧 AI 設定初始條件,但人類現有政治制度的設計初衷,從來都不是應對這類「一次性且不可逆的決策」,這意味著我們當前的制度框架,可能難以承載超智慧 AI 帶來的決策挑戰。

文/朗朗

相關文章推薦

分享網址
AINews·AI 新聞聚合平台
© 2026 AINews. All rights reserved.