カテゴリー: 大規模言語モデル
- LLMを会社のように働かせる:マイクロソフトが「思考並行」をプロトコル化、精度向上と重要経路遅延28%低減
- 強化学習+大規模モデルの記憶:Mem-α、エージェントが「記憶する方法」を初めて学ぶ
- AIの母、李飛飛氏の論文がシリコンバレーを揺るがす!大規模言語モデルの方向性は間違っており、空間知能こそがAGIへの唯一の道
- Metaの最新エージェント学習論文2編が興味深い!
- イノキュレーション・プロンプティング:大規模言語モデルを訓練時に「悪用」させることで、テスト時のアライメントを向上させる
- Claudeの脳に言葉を注入したところ、『自己正当化』を開始!Anthropicの最新研究がAIの内省能力を示唆
- GPTは保守的になっているのか?スタンフォード大学ManningチームがVerbalizedSamplingを提案、モデルに「もう少し考える」ように促す
- Metaが発見:RAGシステムの遅延は無駄な作業が多すぎることが原因
- 失敗するほど学習が速くなる!軌跡リライティング技術により、エージェントは失敗から完璧な経験を創造する!
- 手動アノテーションを不要に!華人チームがマルチモーダル大規模モデルの自己進化アルゴリズムを提案
- 初のマルチラウンドLLMルーター「Router-R1」が登場、大規模モデルに「思考–ルーティング–集約」を学習させる
- ファインチューニングを放棄:スタンフォードがAgentic Context Engineering(ACE)を共同発表、モデル性能を10%向上させ、トークンコストを83%削減
- Googleが明かす:マルチエージェント推論こそがスケーリングの未来である。
- MambaアーキテクチャがトップカンファレンスICLR 2026に採択。AIの頭脳であるTransformerの王座は安泰か?
- 再帰的推論HRMモデルがさらなる進化!TRMの2層ネットワーク(7Mモデル)がLLMを凌駕!
- GoogleがCUA戦場に参入、Gemini 2.5 Computer Useを発表:AIがブラウザを直接操作可能に
- 極めて重要:ドキュメントインテリジェンスにおけるLLM:概説、進展、および将来のトレンド
- 事前知識と事後検証を組み合わせたLLMは、推論・予測における現実の「逸脱」に対応できるか?
- たった今、GPT-5が「ゲーデルテスト」に初合格!三大数学予想を解明
- 中国チームが「スパイク大規模モデル」を訓練、推論速度が100倍に向上
- NeurIPS'25!AutoPrune:プラグアンドプレイ可能な適応型大規模モデル剪定フレームワーク
- 上海交通大学とスタンフォード大学が提案する「長大コード圧縮の決定版」:性能維持で5.6倍の超圧縮を実現
- プリンストン大学陳丹琦グループの新作:RLHFでは不十分、RLVRには限界?RLMTが第三の道を切り開く
- 初のコードワールドモデルがAI界を席巻、エージェントに「真の推論」を可能に、Metaがオープンソース化
- 思考の連鎖を覆す!ByteDanceが逆行工学推論を提案!AIが結果から過程を逆算