カテゴリー: 自然言語処理
- ネイティブなマルチモーダルを再構築!美団が純粋離散基盤モデルを発表、まさしく「万物はすべてトークン」を実現
- マルチエージェントのオーケストレーションは煩雑すぎる?MASFactory が Vibe Graphing で「対話」から直接生成
- 大規模言語モデルに「継続的に新知識を注入」する北航 CASE フレームワーク:1000 回の編集で記憶喪失を起こさず、追加パラメータは 1MB 未満丨 WWW'26
- 一晩で AI が「永久記憶」を獲得!最難関試験で SOTA を 99% 更新、世界中が「狂気」と叫ぶ
- 200Mの実トークンで学習したモデルが、なぜ360Mデータ量の効果に匹敵するのか?
- RAG を 1 年運用して最も後悔したこと:知識グラフの導入
- 神業!MIT と Google が厳密なベイズ推論を実行可能な LLM を訓練
- 大規模言語モデルはなぜ世界を「理解」できるのか?
- Google Gemini 3.1 Proがランキングを制覇、清華大学の姚順宇が参戦!ClaudeとGPTが追い詰められる
- 強化学習は最適ではない、CMUが最大尤度強化学習を提案
- 自己進化エージェントの新たなブレークスルー!MetaがDr. Zeroを発表:自発的に複雑な推論と検索能力を獲得
- 真の外部ツール!MITの新研究:アーキテクチャを変更せずに、大規模モデルが千万級のコンコンテキストを解き放つ
- Googleがモデルの記憶を革新し、NVIDIAが注目を再定義|Hao好聊論文
- 最適化は即ち幾何、幾何は即ち推論:数学でTransformerのブラックボックス時代を終わらせる
- Attentionは必要ではない?グラスマン流形を用いたシーケンスモデル링の幾何学的美学の再構築
- Metaが「Deep Think with Confidence」を発表:ほぼ何も変更せずに推論の精度と効率を向上
- DeepSeek R2の秘密兵器が明らかに!梁文鋒がトップ賞を受賞した技術で、AIの長文読解速度が11倍に爆速化
- ACL 2025 | 大規模モデルの「誤報伝播」?DRAGの二段階「マルチエージェント討論」が幻覚の重層化問題を解決
- AIが人類の12年分の仕事を2日で完了、文献レビューを自動更新し、精度で人類を15%近く凌駕
- 世界のプログラマーが騒然!ジェンスン・フアン氏がロンドンで豪語:「プログラミング言語の未来は『Human』だ」
- Mianbi MiniCPM4:推論速度が3倍、同サイズのQwen3を圧倒、アリババも注目!
- ZeroSearchに続き、通義の最新作MaskSearchが推論検索事前学習の新しいフレームワークを提案
- 清華大学の新しいRAGフレームワーク:DO-RAG、精度が33%向上!
- Qwenチームが長文コンテキスト推論モデルQwenLong-L1を発表、o3-miniを凌駕
- Alibaba、Qwen新モデルをオープンソース化:端午の節句の贈り物!