カテゴリー: 大規模言語モデル
- 思考連鎖推論のボトルネックを打破!「ソフトシンキング」で大規模モデルが人間のような抽象能力を習得、トークン使用量も削減
- Claude 4はどのように考えるのか?シニア研究者が回答:RLHFパラダイムは過去のもの、RLVRはプログラミング/数学で実証済み
- Seed1.5-VL技術レポートの解説
- ゼロから完全に構築、わずか8元と9時間でTiny LLMをトレーニング!推論、MoEなどを含む完全チュートリアル
- Gemini Diffusion:1500トークン/秒、稲妻のような速さ!
- Gemini Diffusionよりも万能!初のマルチモーダル拡散型大規模言語モデルMMaDAが発表、強力な推論と高い制御性を両立
- AIはいつ"考える"べきかを知っているか?Thinklessが大規模言語モデルに思考のタイミングを教える
- ICML 2025 | トレーニング不要、大規模モデルの好み即時アラインメント
- Google | RAGシステムのエラーを追跡:選択的生成フレームワークを提案し、RAGの精度を10%向上
- マルチモーダル大規模モデルが軒並み失敗、GPT-4oの安全合格率はわずか50%:SIUOがクロスモーダルな安全盲点を明らかに
- Nature姉妹誌:人間は再びAIに敗れた、特にそれがあなたが誰であるかを知っているとき
- 信頼できるAgentはどのモデルを使うべきか?LLMの多ターン会話における「迷子」現象 | Microsoft最新
- 思考が負担になるとき:大規模言語モデルの「思考の落とし穴」を解き明かす
- 大規模言語モデルの推論能力はどこまで強いのか?ある研究がLLMの限界と可能性を明らかにする
- 推論のブレークスルー:SoftCoT++はいかにLLMに「複数の道を考える」ことを可能にするか?
- Qwenのブレークスルー:「並列計算」で「パラメータの積み重ね」を代替、新手法でメモリ22倍削減、遅延6倍削減
- LLMにまた致命的な欠陥が発覚:時計が全く読めない!博士も驚愕、正解率50%以下
- ZeroSearch:「Alibaba Technology」ブラウザ不要、大規模言語モデルが自己報酬学習
- Jeff Dean氏:1年以内にAIがジュニアエンジニアに取って代わるだろう、ネットユーザー:「Altmanは口約束だけ、Jeff氏の言葉こそ致命的だ」
- AM-Thinking-v1:32B規模での推論能力の最前線を推進
- Ant Group 武威:次世代「推論」モデルパラダイム大予想
- プロの医師はAIモデルにはるかに劣る?OpenAIが医療オープンソースベンチマークHealthBenchを発表、o3が最高のパフォーマンスを示す
- 直感から「深層思考」へ:多次元的に進化する大規模モデルの推論能力
- DeepSeekの精度と効率が両方向上、Huawei&信工所が思考連鎖の「早期終了」メカニズムを提案
- GPT-5開発の内部情報初公開!OpenAIチーフリサーチオフィサー「AGIはもうすぐそこだ」