最新の記事
- AI研究革命:オックスフォード大学チームが「世界モデル」を用いて半年の科学研究を一晩で達成!AI科学者構造化世界モデル研究自動化マルチエージェントシステム自律的科学発見...
- イノキュレーション・プロンプティング:大規模言語モデルを訓練時に「悪用」させることで、テスト時のアライメントを向上させるAIアライメント大規模言語モデル報酬ハッキングモデル学習イノキュレーションプロンプティング...
- Claudeの脳に言葉を注入したところ、『自己正当化』を開始!Anthropicの最新研究がAIの内省能力を示唆AIの内省大規模言語モデルAnthropic概念注入自己認識...
- 陳天橋氏がAIASで提唱:生成AIではなく発見型AIがAGIの標準である人工知能汎用人工知能神経ダイナミクス脳科学科学的発見...
- GPTは保守的になっているのか?スタンフォード大学ManningチームがVerbalizedSamplingを提案、モデルに「もう少し考える」ように促す大規模言語モデル言語化サンプリング生成AIAIアラインメントモード崩壊...
- NASの新視点:グラフニューラルネットワーク駆動の汎用アーキテクチャ空間、ハイブリッド畳み込みとTransformerで性能向上!ニューラルアーキテクチャ探索グラフニューラルネットワーク深層学習畳み込みニューラルネットワークTransformer...
- おっしゃる通り、AGIは1年以内には現れない!27機関によるAGIの学術的定義が発表汎用人工知能AGI定義AIの未来認知科学AI評価...
- Metaが発見:RAGシステムの遅延は無駄な作業が多すぎることが原因人工知能RAG機械学習最適化大規模言語モデル...
- AIは本当に癌を克服しようとしているのか?Googleが2日間で2つのブレークスルーを発表人工知能がん研究Google機械学習遺伝子解析...
- 失敗するほど学習が速くなる!軌跡リライティング技術により、エージェントは失敗から完璧な経験を創造する!人工知能大規模言語モデル学習効率AIエージェント強化学習...
- 手動アノテーションを不要に!華人チームがマルチモーダル大規模モデルの自己進化アルゴリズムを提案マルチモーダルAI自己対局学習機械学習VLM大規模言語モデル...
- NTUらがA-MemGuardを発表:AIメモリをロックし、ポイズニング攻撃の成功率を95%以上削減AIセキュリティLLMエージェント脅威対策機械学習メモリポイズニング...
- 初のマルチラウンドLLMルーター「Router-R1」が登場、大規模モデルに「思考–ルーティング–集約」を学習させる大規模言語モデルルーティングコスト最適化AIシステム強化学習...
- エージェントによる長距離検索の二つの主要な問題点が解決!CAS DeepMinerが32kコンテキストで100回近くの試行を達成、オープンソースがクローズドソースに肉薄。AIエージェントディープサーチデータセット構築コンテキスト管理LLM...
- OpenAI共同創設者が明かす「苦悩と葛藤」:我々は計算資源が極度に不足する世界に向かっている!社内のGPU割り当てはテトリス、Sora 2は弱体化されたオリジナルモデルだ人工知能OpenAIAGIGPU計算資源...
- ファインチューニングを放棄:スタンフォードがAgentic Context Engineering(ACE)を共同発表、モデル性能を10%向上させ、トークンコストを83%削減AI開発コンテキストエンジニアリングコスト削減パフォーマンス改善大規模言語モデル...
- Googleが明かす:マルチエージェント推論こそがスケーリングの未来である。マルチエージェントシステム大規模言語モデル推論技術Google DeepMindAI研究...
- MambaアーキテクチャがトップカンファレンスICLR 2026に採択。AIの頭脳であるTransformerの王座は安泰か?AI技術大規模言語モデルトランスフォーマー計算効率ニューラルネットワーク...
- Claude CodeがClaude Appに搭載予定AIコーディングAnthropicソフトウェア開発GitHub連携モバイルアプリ...
- 再帰的推論HRMモデルがさらなる進化!TRMの2層ネットワーク(7Mモデル)がLLMを凌駕!人工知能深層学習機械学習大規模言語モデル再帰型ニューラルネットワーク...