カテゴリー: 大規模言語モデル
- LSTMの父が22年前に構想したアイデアは実現するのか?AI「自己進化」に関する論文が1週間で集中公開、新たなトレンドが台頭?
- AIの数学能力が100%急増、自己進化が強化学習の限界に迫る!CMUの新作が認識を覆す
- 【深層学習】Mamba主要著者の新作:DeepSeek採用のアテンションメカニズムを置き換え、推論専用に設計
- LLMがどのように推論し自己反省するかを初解説!ノースウェスタン大学とGoogleの新フレームワーク:ベイズ適応型強化学習を導入し、数学的推論能力を大幅に向上
- AIは「自らの過ち」を認めるのか?マルチエージェント協調の「羅生門」を解き明かし、ICML 2025 Spotlightを獲得
- スタンフォードの中国人チームがまさかの番狂わせ!AIが純粋なCUDA-Cでカーネルを記述し、PyTorchを凌駕?
- 大規模モデルは数独が苦手?!Transformer開発者のスタートアップがランキング発表:o3 Mini Highの「変種数独」正答率はわずか2.9%
- Andrej Karpathy が絶賛!スタンフォード大学チームの新作、Llama-1B でミリ秒級推論を実現
- 清華大学の新しいRAGフレームワーク:DO-RAG、精度が33%向上!
- LLMとRLの組み合わせに疑問符:意図的な誤った報酬でも数学ベンチマークが大幅向上、AI界に衝撃
- Qwenチームが長文コンテキスト推論モデルQwenLong-L1を発表、o3-miniを凌駕
- All-In Podcast 議事録:Geminiが「無限のコンテキスト」を牽引、AIはツールから認知コラボレーターへ昇格
- Llama論文著者「離脱」、14人のチームはわずか3人に、フランスのユニコーン企業Mistralが最大の勝者に
- 長い推論≠高精度!「即答」と「深考」の適応的切り替え:トークン削減と精度向上の二重の利益の哲学
- ICML 2025 | 「人間テスト法」でAIバブルを突き破る:能力指向型適応的評価の新パラダイムを構築する
- Alibaba、Qwen新モデルをオープンソース化:端午の節句の贈り物!
- ICML 2025 | 速くて強力なライガー!わずか20Mトークンでファインチューニング、Transformerが瞬時に線形RNNに切り替わる
- GRPO=高度な拒否サンプリング?強化学習の解明の時:負のサンプル「選択と集中」が鍵!
- LLMは数学を理解できるのか?最新の研究が大規模モデルの数学的推論における致命的な欠陥を明らかに
- 彼女はいかにして「システム2」を大規模言語モデルにもたらしたか | マイクロソフトリサーチアジアの張麗氏との対話
- 312の軌跡で性能241%向上!上海交通大学とSIIがオープンソースのコンピューターエージェントを開発、Claude 3.7を超える
- 史上初!o3がLinuxカーネルのゼロデイ脆弱性を発見、12000行のコードを100回見て特定、ツール不要
- 統計的に制御可能なデータ合成!新フレームワークが大規模言語モデルのデータ生成の限界を突破、マギル大学チームがLLMSynthorを発表
- 深層|AIユニコーンCharacter.AI CEOインタビュー:最高のアプリケーションはまだ発明されていない、AI分野は錬金術に似ており、何が成功するか誰も正確には知らない
- AIが賢くなるほど言うことを聞かなくなる!新研究:最強の推論モデルの指示遵守率はわずか50%