分類: 自然語言處理
- 李飛飛團隊最新研究:從熵到互信息,RAGEN-2 重塑推理品質標準,終結 AI Agent「越訓越模板化」困境
- 多智能體編排太繁瑣?MASFactory 用 Vibe Graphing 直接「話」出來了
- 僅用2億真實Token訓練的模型,為何能媲美3.6億數據量的效果?
- 實作 RAG 這一年,最後悔的就是盲目導入知識圖譜
- 最強多模態大模型在真實網頁搜尋中被人類碾壓?GPT-5.2 僅獲 36% 勝率,北大、華為等聯合開源全新深度搜尋基準 BrowseComp-V3
- 神作!MIT 與 Google 訓練出能進行嚴格貝氏推論的 LLM 大模型
- Google 新研究找到了大型模型反覆推敲的重要 Token!
- On-Policy Distillation 到底是什麼?深度解讀 On-Policy/Self-Distillation
- Transformer 作者領軍,Sakana AI 連發三篇論文:徹底重構長文本的記憶機制
- 真·開外掛!MIT新研究:架構0改動,讓大模型解鎖千萬級上下文
- Attention 並非你所需的全部?以格拉斯曼流形重構序列建模的幾何美學
- Meta 提出 Deep Think with Confidence:幾乎無需更動,即可提升推論的準確性與效率
- DeepSeek R2 秘密武器曝光!梁文鋒剛拿下頂級大獎的技術,讓 AI 讀長文速度狂飆 11 倍
- 推理越多,幻覺越重?多模態推理模型的「幻覺悖論」
- ACL 2025 | 大型語言模型「以訛傳訛」?DRAG 雙階段「多代理辯論」破解幻覺疊加問題
- 全球程式設計師譁然!黃仁勳於倫敦放話:程式語言的未來是「Human」
- 面壁MiniCPM4推論速度快3倍,碾壓同尺寸Qwen3,讓阿里巴巴也感到壓力了~
- 繼ZeroSearch之後,通義最新力作MaskSearch提出推論搜尋預訓練新框架
- 整理RL推理的進展
- 清華大學新RAG架構:DO-RAG 準確率飆升33%!
- 阿里巴巴開源Qwen新模型,端午節禮物來囉!
- ICML 2025 | 無需訓練,即時對齊大模型偏好
- Google 可自我發現演算法 AlphaEvolve 的開源實現:OpenAplha_Evolve
- ChatGPT如何顛覆整個自然語言處理領域:一段口述歷史
- DeepSeek 放大招!新模型專注數學定理證明,大幅刷新多項高難基線測試。