カテゴリー: 大規模言語モデル
- LLM RL 訓練軌跡は線形だった?Miaow Lab 最新研究:追加訓練不要で、直接「予測」する未来モデル!
- On-Policy Distillation とは何か?On-Policy/Self-Distillation の深層解説
- Qwen3.5:ネイティブマルチモーダルエージェントへの道
- 小米がJudgeRLVRを発表:先に判断してから生成——推論モデルの「長い思考チェーン」の効率パラドックスを打破
- ModelBestのSALAアーキテクチャ、Transformerの壁を取り壊す
- Nvidia、精度を損なわずにLLM推論コストを8倍に削減する新技術を発表
- Claude新モデル4.6登場!さらに多くの仕事が失われる:ウォール街の財務、コンパイラ、セキュリティホワイトハッカー、PPT…すべてが失守
- 面壁智能9B端側全モーダルオープンソース:見ながら聞き、いつでも中断、即時対話
- Claude 4.6とGPT-5.3-Codexが同時に発表!
- 2社のAIユニコーンを連続創業!この大物が、今回はAI自身に進化を目指させる
- Transformerの著者が率いるSakana AI、3つの論文を連続発表:長文の記憶メカニズムを徹底的に再構築
- 智譜の新モデルもDeepSeekのMLAを使用、Apple M5で実行可能
- 真の外部ツール!MITの新研究:アーキテクチャを変更せずに、大規模モデルが千万級のコンコンテキストを解き放つ
- つい先ほど、梁文鋒氏が署名した新論文が深夜に衝撃を与える!DeepSeek-V4 新アーキテクチャ公開:MoE と相補的な新しいスパース化の方向性を提案、長文脈能力を大幅に拡張、推論とコード生成能力が強化
- LAMER:メタ強化学習が言語エージェントに能動的な探索を学ばせる
- スタンフォード最新講義公開:手書きコード禁止、AIのみ使用
- 「Titans+MIRAS & Nested」の飛躍的なアーキテクチャ革新からNeurIPS2025最優秀論文「Gated Attention」へ
- 因果推論がLLM戦場に突入!大規模モデルの幻覚終結者?ABCAフレームワーク
- 論文概説 | 条件文を利用して大規模言語モデルの因果推論能力を活性化・向上させる(CL2025)
- え?RLVRは新しい知識を学んでいるのではなく、知識をどのように使って推論するかを学んでいる!
- Karpathyが大規模モデル「議会」を組織、GPT-5.1、Gemini 3 Proなどが最強の智囊団に
- オックスフォード大学がH1「ブートストラッピング」フレームワークを提案、モデルが自己進化し能力が空から生まれる!
- コスト8000ドル以下!Sina Weiboの1.5B小型モデルが数千億パラメータモデルを超える
- RLはより記憶を保持、SFTは忘れやすい?プリンストン陳丹琦チームが後訓練の認知を書き換え
- マイクロソフトがGADフレームワークを提案:オープンソースモデルもブラックボックスGPT-5を直接蒸留可能