カテゴリー: 大規模言語モデル
- ZeroSearch:ゼロ検索でLLMの潜在能力を促進、LLM検索能力の新時代を切り拓く
- モデルに自己議論を強制、再帰的思考版CoTが人気急上昇!ネチズン:「これってほとんどの推論モデルの手法じゃない?」
- たった1つのデータで、大規模言語モデルの数学的推論能力を大幅に向上させられるのか?
- スタンフォードの以弱馭強W4S:Meta-Agentでより強力なLLMを操縦、精度が95.4%に向上 | 最新
- 強化学習アルゴリズムの整理:PPOからGRPO、そしてDAPOへ
- 研究:LLMのプレフィル機能が、かえってジェイルブレイクの脆弱性になっていた!
- 北京大学、清華大学、UvA、CMUなどが共同発表:大規模モデルの論理的推論能力に関する最新サーベイ
- NVIDIA Llama Nemotronシリーズ:主要技術解説
- マイクロソフトアジア研究所 SYNTHLLM:言語モデル向け合成データのスケーリング則を検証
- ChatGPTがいかにNLP分野全体を破壊したか:オーラルヒストリー
- LLMエージェントのパフォーマンスが低い理由:Google DeepMindの研究が3つの失敗モードを明らかに、RLファインチューニングで緩和可能
- ZTEワイヤレス研究所「大規模モデル深潜」チーム、LLM適応型質問難易度蒸留法を発表、小規模モデルの推論能力を大幅に向上
- ZTEの研究:LLM適応型問題難易度グレーディング蒸留により、小規模モデルも「長連鎖思考」能力を獲得
- AIの後半戦:アルゴリズムから実用性へ
- 大規模言語モデルは、決して汎用人工知能への終着点ではない!
- AI界の「オリンピック」?OpenAIが新しいベンチマークMRCRを発表、モデルの「干し草の山の中の針」能力が限界に挑む!
- 本日のAI最前線進捗速報
- PPT Agent:AIによる自動プレゼンテーション生成ツール
- 新刊「Reasoning From Scratch」第1章公開:Sebastian Raschka氏が語るLLMの推論、パターンマッチング、基本学習