谷歌新發現:DeepSeek 推理分裂出多重人格,左右腦互搏越來越聰明

聞樂 發自 凹非寺量子位 | 公眾號 QbitAI

AI 變聰明的真相居然是正在「腦內群聊」?!

谷歌最新研究表明,DeepSeek-R1 這類頂尖推理模型在解題時,內部會自發「分裂」出不同性格的虛擬人格,比如外向的、嚴謹的、多疑的……

大模型的解題推理過程,就是這些人格一場精彩的社交、辯論會;左右腦互搏 be like:

「這個思路對嗎?試試這樣驗證……」「不對,之前的假設忽略了 xx 條件」……

圖片

有意思的是,AI 還越吵越聰明

研究發現,當遇到 GPQA graduate-level 科學問題、複雜數學推導這類高難度任務時,這種內部觀點衝突會變得更加激烈。

相比之下,面對布爾表示式、基礎邏輯推理等簡單任務,模型的腦內對話會明顯減少。

圖片

模型推理過程就是「左右腦互搏」

團隊透過分析 DeepSeek-R1 和 QwQ-32B 等模型的思維軌跡發現,它們的推理過程充滿了對話感。

內部分裂出來的虛擬角色不僅性格迥異,還能覆蓋更多解題角度。

創意型角色擅長提出新穎思路,批判型角色專注挑錯補漏,執行型角色負責落地驗證……

圖片

透過這些人格的一場交流,不同觀點的碰撞能讓模型更全面地審視解決方案。

就連網友都說,自己在思考的時候,也會「左右腦互搏」。

圖片

不過,這種多角色互動並不是開發人員刻意設計的,而是模型在追求推理準確率的過程中自發形成的。

那麼實驗是如何證明這一點的呢?

圖片

團隊借助稀疏自編碼器 SAE,對 AI 的推理黑盒進行了深度解碼,成功「監聽」到了 AI 的腦內群聊。

首先,研究者讓 AI 執行複雜的數學或邏輯推理任務。在模型產出思維鏈的同時,團隊同步提取其隱藏層神經元的激活數值。

但此時的數據是由數億個參數構成的複雜非線性訊號,無法直接對應任何語義。

將這些激活數據輸入 SAE,透過 SAE 的稀疏約束機制,就可以把雜亂的激活拆解為「自問自答」、「切換視角」等獨立的對話語義特徵;

透過分析這些特徵的激活頻率以及它們在時間序列上的協同關係,團隊成功識別出了不同的內部邏輯實體。

再給上述特徵打上「規劃者」、「驗證者」等虛擬角色的標籤,就成功解碼了 AI 內部的多角色對話行為。

「哦!」能讓推理更準確

透過對比 DeepSeek-R1 與 DeepSeek-V3、Qwen-2.5-32B-IT 這類普通指令模型的推理軌跡,發現推理模型的對話式行為出現的頻率顯著更高

圖片

這裡還有個很有意思的發現——

「哦!」能讓推理更準確。

當團隊透過激發添加法強化模型的對話特徵,放大「哦!」這類表達驚訝、轉折的話語標記時,模型在 Countdown 算術推理任務中的準確率直接從 27.1% 翻倍至 54.8%。

圖片

更關鍵的實驗證據來自強化學習訓練。

研究人員不提供任何對話結構的訓練訊號,只獎勵模型答對題目的行為,結果發現模型會自發學會用對話式思考;

而先透過多智慧體對話資料對模型進行微調,再進行推理訓練,進步速度會遠快於直接訓練推理或用獨白式推理資料微調的模型。

在 Qwen-2.5-3B 和 Llama-3.2-3B 兩個模型體系中,早期訓練階段對話微調模型的準確率比獨白微調模型高出 10% 以上,Llama-3.2-3B 到訓練後期差距甚至擴大到 22%。

圖片

這一發現恰好呼應了人類演化生物學中的著名理論社會腦假說

假說認為人類大腦的進化主要是為了應對複雜的社交關係和群體互動需求。

如今看來,AI 也是一樣,為了變聰明,得先會和不同「人格」社交!

論文地址:https://arxiv.org/abs/2601.10825參考連結:https://x.com/sebkrier/status/2013331596863041731

一鍵三連「點讚」「轉發」「小心心」

歡迎在評論區留下你的想法!

—  —

👑 年度「AI 100」產品榜單正式發布!

量子位智庫透過三大板塊——最強綜合實力的「旗艦 AI 100」、最具未來潛力的「創新 AI 100」和十大熱門賽道代表產品,全面梳理 2025 年度國內 C 端 AI 產品的發展脈絡與創新成果。

圖片

一鍵關注 👇 點亮星標

科技前沿進度每日見


分享網址
AINews·AI 新聞聚合平台
© 2026 AINews. All rights reserved.