分類: 大型語言模型
- 破除大型語言模型強化學習訓練中的「熵」詛咒,讓模型學會穩定成長!
- 想越多,錯越多:CoT「深度思考」反成大型語言模型幻覺催化劑!
- 不微調,讓LLM推理準確率暴增到99%!試下DeepConf,一個輕量級推理框架|Meta最新
- 史丹佛提出新強化學習範式,讓3B模型智能體超越Claude、GPT-4
- 大型語言模型為何會產生幻覺?OpenAI 最新研究揭示了原因
- Anthropic 承認模型「降智」卻仍放任其偷懶?Claude Code 使用者信任正崩塌
- 史丹佛最新研究:最強LLM也搞不定前瞻程式碼!Gemini 2.5 Pro成功率不足40%
- 微軟提出rStar2-Agent:「更聰明地思考」遠比單純地「更長時間地思考」更有效率、更高效
- 【大師之思】Martin Fowler 的 AI 隨筆:我們正處在一個連「問題」都看不清的時代
- Meta 提出 Deep Think with Confidence:幾乎無需更動,即可提升推論的準確性與效率
- MCP堆疊工具是個大坑!開發者大佬:命令列的「脆弱」讓AI慘敗!不如砍掉變成一個程式碼執行器:7輪呼叫秒變1輪!網友:早該放棄黑箱工具了!
- 獎勵模型新革命!SWIFT不讀文本讀「心聲」,打造又快又強又省錢的AI裁判
- 思維鏈推理的「海市蜃樓」:大型語言模型泛化能力的深入探討
- GPT-5 對決 Claude Opus 4.1:程式編碼能力評測
- 硬核解析大型語言模型:從 DeepSeek-V3 到 KimiK2,一篇文看懂主流 LLM 架構
- ARPO:智能體強化策略優化,讓Agent在關鍵時刻多探索一步
- 史上最大高品質科學推理後訓練資料集開源,快速讓Qwen3等變「科學家」
- 王夢迪團隊「自我進化代理」綜述:從靜態大型語言模型到超智慧人工智慧
- 大型語言模型的黑化開關!Anthropic團隊新作:大型語言模型的人格變數,人類終於找到了!提出人格漂移工具鏈,破解讓模型失控的黑箱
- 注意力總是發散?人大與清華大學聯合提出LeaF:移除干擾型Token,引導模型學會自主聚焦
- 模型真的能「反思程式碼」嗎?北航發布倉庫級理解生成基準,刷新大型語言模型理解評估範式
- ReaGAN:讓圖中每個節點都成為智能推理專家
- Google 約戰,DeepSeek、Kimi 都要上,首屆大型模型對抗賽明天開戰
- RAG 革新!Graph-R1:首個由強化學習驅動的圖推理代理
- 阿里雲剛開源Qwen-Image,免費版GPT-4o吉卜力,中文最佳模型