↑記事を読む前にフォローとスター⭐️をお願いします。毎日最新情報をいち早くお届けします😄
1 年半にわたる研究開発を経て、自動 AI 研究は歴史的な瞬間を迎えました。
Sakana AI がブリティッシュコロンビア大学、ベクター研究所、オックスフォード大学と共同で開発した「AI 科学者」システムが、科学誌『Nature』に正式に掲載されました。この論文ではシステムアーキテクチャの詳細な分析、新たなスケーリング則(スケーリング則)の発見、そして AI による科学生成の未来と課題について深く議論されています。現在、このシステムの第 1 世代および第 2 世代のコード、さらに生成された論文はすべて GitHub で公開されています。
Nature 論文:https://www.nature.com/articles/s41586-026-10265-5
GitHub:https://github.com/SakanaAI/AI-Scientist
https://github.com/SakanaAI/AI-Scientist-v2
過去 1 年半の歩みを振り返ると、AI 科学者システムの発展には 2 つの重要な段階がありました。
第 1 段階は「実現可能性の実証」です。研究チームは当初、単純な nanoGPT のトレーニングコードのような基本的なテンプレートだけをシステムに与えました。それにもかかわらず、システムは自律的に新しいアイデアを生み出し、実験を設計・実行し、最終的に完全な論文を単独で執筆することに成功しました。生成された論文の品質を評価するため、チームは専用の「自動査読者システム」も開発しました。これにより、機械学習研究の全プロセスをエンドツーエンドで自動化することが完全に可能であることが、史上初めて証明されたのです。
第 2 段階は、科学界における「チューリングテスト」への挑戦でした。システムの 2 回目のアップデートでは、AI 研究に関する広範なテーマであれば何でも探求できるという極めて大きな自由度が与えられました。チームは、人間による一切の編集を加えていない、完全に AI が生成した論文を、ICLR 2025 のあるワークショップに直接投稿し、人間による厳格な二重盲検のピアレビューにかけました。
その結果は衝撃的なものでした。ある原稿は個別評価で 6 点、7 点、6 点を獲得し、平均点は 6.33 点に達しました。これは人間が設定した採択基準をクリアする得点であり、人間の研究者による論文の 55% を上回る高得点でした。なお、この投稿プロセスは事前にワークショップの主催者側の合意を得ており、論文の採択が確認された時点で、計画通りに撤回手続きが行われています。
今回の『Nature』論文は上記の画期的成果を総括するだけでなく、それを可能にした基盤大規模言語モデル(LLM)の最適化メカニズムについても明らかにしています。実際の運用では、大まかな研究方向を指定するだけで、システムは自律的に革新的な研究アイデアを創出します。関連文献の検索・読解を行い、並列的なエージェントツリー検索を通じて実験の設計、プログラミング、実行を行います。最終的には LaTeX を使用して論文全体を執筆しますが、その過程で視覚機能を持つ基盤モデルを呼び出し、論文に掲載する図表のフィードバックを得るといった離れ業もこなします。
新発見:自動査読者と科学界のスケーリング則
AI が生成する研究成果を大規模に評価し、かつ人間の査読者に過重な負担をかけないために、チームは「自動査読者システム」を構築しました。
このシステムは分野別の議長役として振る舞うよう設定されており、5 つの独立した審査意見を総合し、NeurIPS の公式ガイドラインに厳密に従って最終判断を下します。研究チームは OpenReview データセットに含まれる数万件もの実在する人間の査読決定でベンチマークテストを実施しました。その結果、自動査読者のパフォーマンスは人間と同等であり、バランス精度は 69% に達しました。さらに F1 スコアにおいては、著名な NeurIPS 2021 における一貫性実験で測定された「人間査読者間の一致度」さえも上回る結果を示しました。
さらに重要なのは、この査読システムを用いて異なる基盤モデルが生成した論文を評価した結果、明確な「スケーリング則」が発見されたことです。基盤モデルの能力が高いほど、システムが生成する論文の質も向上するという傾向です。これは、計算コストの低下とモデル能力の指数的向上に伴い、将来のバージョンの AI 科学者がさらに驚異的な能力を発揮することを強く示唆しています。
限界と未来:人間による代行の前夜
人間のピアレビューを通過したことは巨大な飛躍ですが、AI 科学者システムはまだ初期段階にあり、『Nature』論文でもいくつかの限界が率直に認められています。
例えば、時折、未熟あるいは稚拙なアイデアを提案してしまうことがあります。極めて深遠な方法論の厳密な扱いや、複雑なコードの実装においては苦戦することもあります。また、システムは幻覚(ハルシネーション)を起こしたり、明らかな初歩的なミスを犯すこともあり、存在しない参考文献を生成したり、論文の補遺に同じ図表を重複して配置したりする事例も見られました。
しかし、機械学習分野には明白な傾向があります。新しい能力が一度機能し始めれば、明らかな欠陥があったとしても、規模の拡大と中核モデルの進化に後押しされ、極めて短期間で人間の能力を凌駕するのです。現状では AI 科学者は計算を伴う実験に限定されていますが、チームはこの手法が他の分野にも適用可能であり、開かれた探求的発見を通じて科学界全体の進歩を触媒すると予想しています。
科学的発見パラダイムの根本的転換
論文の自動生成能力は、必然的にかつ深刻な倫理的・社会的議論を巻き起こします。これには、ピアレビューシステムの崩壊リスクや、学術的経歴の水増しなどが含まれます。
研究チームはこの技術の責任ある開発の重要性を強調しています。そこには、AI による論文生成がもはや現実のものであり、場合によっては人間の水準に完全に匹敵しうることを一般に周知させることも含まれます。チームは採択された AI 生成論文を自主的に撤回し、すべての実験は倫理審査委員会の承認を得て実施されました。同時に、チームは AI が生成したすべての論文に、その出自を示す透かし(ウォーターマーク)を挿入しました。そして学界全体に対し、この慣行を採用し、AI 生成研究に対する明確な規範を早期に確立するよう呼びかけています。
出典:https://sakana.ai/ai-scientist-nature/
-- 以上 --
最後までお読みいただきありがとうございます。記事が参考だと思ったら、高評価・シェア・コメントをお願いします。毎日更新中です!⭐️
著者:あなたの言う通り(YAR 師)