カテゴリー: 深層学習
- NVIDIAとSakana AIが共同開発した「スパースLLM」の核心技術を徹底解説
- 産業用コード生成能力でオープンソース第 1 位!北航チームが実機シミュレーション環境で 250 万件の検証済みデータを生成し、産業用コーディングの「水と油」問題を解決
- LLMはコンピューターになれるか? | Percepta
- Mamba-3: 推論効率を最優先に設計された新しい状態空間モデル
- AIは世界を理解する必要はないが、我々はAIを理解する必要がある
- 注意を 90 度回転させる!今日、Kimi の「注意残差」が話題に
- Nvidia、精度を損なわずにLLM推論コストを8倍に削減する新技術を発表
- Less is More: Recursive Reasoning with Tiny Networks
- Transformerは死んだか?DeepMindがAGIへの別の道に賭ける
- RLVR強化学習の学習コストが98%急減!12種のPEFT手法を大比較、結果は意外だった...
- Attentionは必要ではない?グラスマン流形を用いたシーケンスモデル링の幾何学的美学の再構築
- 梁文鋒の署名付き、DeepSeek新年の宏観アーキテクチャ新章、勾配爆発とメモリ壁を解決
- 【深掘り】Ilya Sutskever精選論文:プラトニック表現仮説
- 上海交通大学博士の最新考察:2つの質問だけで強化学習を明確にする
- NASの新視点:グラフニューラルネットワーク駆動の汎用アーキテクチャ空間、ハイブリッド畳み込みとTransformerで性能向上!
- 再帰的推論HRMモデルがさらなる進化!TRMの2層ネットワーク(7Mモデル)がLLMを凌駕!
- 思考の連鎖を覆す!ByteDanceが逆行工学推論を提案!AIが結果から過程を逆算
- 階層的推論モデル Hierarchical Reasoning Model
- Kimi K2の主要な訓練技術:QK-Clip!
- アンドリュー・ン氏、LLMの「後学習」無料コースを公開:SFT、DPO、RLの3つの主要なチューニング手法を網羅
- 継続強化学習技術に関する最新の調査
- アリババが深夜に「切り札」エージェントをオープンソース化!OpenAIに真っ向勝負、性能は全面的にSOTAを達成!
- 10行のコードでAIME24/25が15%向上!大規模モデル強化学習におけるエントロピーメカニズムの解明
- 【深層学習】Mamba主要著者の新作:DeepSeek採用のアテンションメカニズムを置き換え、推論専用に設計
- Andrej Karpathy が絶賛!スタンフォード大学チームの新作、Llama-1B でミリ秒級推論を実現