OpenAI、完全自動化された「AI研究者」の構築に総力を挙げる

人工知能

OpenAIは研究努力を再整理し、すべてのリソースを新たな「グランドチャレンジ」に注ぎ込んでいる。このサンフランシスコの企業は、「AI研究者」と呼ぶものの構築を目指している。これは、単独で大規模かつ複雑な問題に取り組むことができる完全自動化されたエージェントベースのシステムである。OpenAIは、この新しい研究目標が今後数年間の「北極星(指針)」になると述べており、推論モデル、エージェント解釈可能性に関する研究など、複数の研究分野を統合するものである。

タイムラインも存在する。OpenAIは9月までに「自律的なAI研究インターン」—特定の研究問題をいくつか自律的に扱えるシステム—を構築する計画だ。このAIインターンは、2028年に企業が発表を予定している完全自動化されたマルチエージェント研究システムの前身となる。このAI研究者は(OpenAIによれば)、人間には大きすぎる、あるいは複雑すぎて対処できない問題に取り組むことができるようになる。

こうしたタスクは、新しい証明や予想の発見といった数学や物理学に関連するものかもしれないし、生物学や化学のような生命科学、あるいはビジネスや政策上のジレンマかもしれない。理論上、テキスト、コード、あるいはホワイトボードの走り書きで表現できるあらゆる種類の問題をこのツールに投げかけることができる—これは非常に広範囲をカバーする。

OpenAIは長年、AI業界のアジェンダを設定してきた。同社の大規模言語モデルにおける初期の優位性は、何億もの人々が毎日使用する技術を形作った。しかし現在、AnthropicやGoogle DeepMindといった競合モデル開発者との激しい競争に直面している。OpenAIが次に何を構築するかは重要だ—同社自身にとっても、そしてAIの未来にとっても。

その決定の大部分は、OpenAIのチーフサイエンティストであるヤクブ・パチョツキ(Jakub Pachocki)にかかっている。彼は会社の長期的な研究目標を設定している。パチョツキは2023年にリリースされた画期的なLLM「GPT-4」と、2024年に初めて登場し、現在では主要なチャットボットやエージェントベースのシステムの基盤となっている「推論モデル」の開発において重要な役割を果たした。

今週行われた独占インタビューで、パチョツキはOpenAIの最新のビジョンについて説明してくれた。「人間と同じように、首尾一貫した方法で無期限に作業できるモデルに近づいていると考えています」と彼は言う。「もちろん、依然として人間が主導権を握り、目標を設定してほしいと思うでしょう。しかし、データセンター内にまるごと一つの研究所を持つようなところまで到達すると思います」

困難な問題を解決する

このような大きな主張は新しいものではない。最も困難な問題を解決することで世界を救うことは、すべてのトップAI企業の明記された使命である。デミス・ハサビス(Demis Hassabis)は2022年、それがDeepMindを始めた理由だと私に語った。AnthropicのCEO、ダリオ・アモデイ(Dario Amodei)はデータセンター内の「天才の国」に相当するものを構築していると述べている。パチョツキの上司であるサム・アルトマン(Sam Altman)はがんを治療したいと考えている。しかしパチョツキは、OpenAIはそこに到達するために必要なもののほとんどを今持っていると言う。

1月、OpenAIは「Codex」をリリースした。これは、コンピュータ上でタスクを実行するためにコードをその場で生成できるエージェントベースのアプリだ。ドキュメントの分析、グラフの生成、受信トレイやソーシャルメディアの日次ダイジェストの作成などが可能だ。(他社も同様のツールをリリースしている、例えばAnthropicのClaude CodeやClaude Coworkなど)。

OpenAIは、技術スタッフの大多数が現在、業務でCodexを使用していると主張している。CodexはAI研究者の非常に初期のバージョンと見なすことができる、とパチョツキは言う。「Codexは根本的に良くなっていくと期待しています」

重要なのは、人間の指示をあまり必要とせず、より長い時間動作できるシステムを作ることだ。「自律的な研究インターンにおいて私たちが本当に求めているのは、人間が数日かかるタスクを委任できるシステムです」とパチョツキは言う。

「より長期にわたって実行できる科学的研究を行えるシステムの構築に興奮している人はたくさんいます」と、OpenAIとは関係のないアレンAI研究所の研究科学者、ダグ・ダウニー(Doug Downey)は言う。「これは主に、これらのコーディングエージェントの成功によって推進されていると思います。Codexのようなツールにかなり実質的なコーディングタスクを委任できるという事実は、信じられないほど有用で、信じられないほど印象的です。そしてこれは疑問を投げかけます:コーディング以外の、科学のより広い領域で同様のことができるでしょうか?」

パチョツキにとって、それは明確な「イエス」だ。実際、彼はそれは私たちがすでに進んでいる道を前に進めるだけの問題だと考えている。全体的な能力の単純な向上は、支援なしでより長く作業できるモデルにつながると彼は言う。彼は、OpenAIの以前のモデルの2つである2020年のGPT-3から2023年のGPT-4への飛躍を指摘する。GPT-4は、特別なトレーニングなしでも、前身よりもはるかに長い時間問題に取り組むことができたと彼は言う。

いわゆる推論モデルはもう一つの飛躍をもたらした。LLMに、間違いを犯したり行き止まりにぶつかったりしたときにバックトラックしながら、ステップバイステップで問題に取り組むようトレーニングすることで、モデルはより長い期間作業する能力が向上した。そしてパチョツキは、OpenAIの推論モデルが向上し続けると確信している。

しかしOpenAIはまた、数学やコーディングコンテストからの難しいパズルのような複雑なタスクの特定のサンプルをシステムに与えることで、より長い時間自律的に動作するようトレーニングしている。これにより、モデルは非常に大きなテキストの塊を追跡し、問題を複数のサブタスクに分割して(そして管理する)方法を学ぶことを強制される。

目的は、単に数学競技に勝つモデルを構築することではない。「それは、技術が機能することを現実世界とつなぐ前に証明するためのものです」とパチョツキは言う。「本当に望めば、素晴らしい自動数学者を構築できます。私たちはすべてのツールを持っており、それは比較的容易だと思います。しかし、今は優先しないことです。なぜなら、できると信じる時点で、もっと緊急のことがたくさんあるからです」

「私たちは今、現実世界に関連する研究にもっと焦点を当てています」と彼は付け加える。

現在、それはCodexがコーディングでできることを取り、それを一般的な問題解決に適用しようとすることを意味する。「特にプログラミングにおいて、大きな変化が起きています」と彼は言う。「私たちの仕事は、1年前とは完全に異なっています。もう誰も常にコードを編集していません。その代わりに、Codexエージェントのグループを管理します」Codexがコーディングの問題を解決できるなら(という論理だ)、どんな問題でも解決できる。

ラインは常に上向く

OpenAIが過去数ヶ月でいくつかの注目すべき成功を収めたことは事実だ。研究者はGPT-5(Codexを駆動するLLM)を使用して、未解決の数学問題の新しい解法を発見し、いくつかの生物学、化学、物理学のパズルの明らかな行き止まりを突破した。

「これらのモデルが、ほとんどの博士号取得者が少なくとも数週間かかるようなアイデアを思いつくのを見ると、近い将来、この技術からさらなる加速が見られると期待できます」とパチョツキは言う。

しかしパチョツキは、それが決定的なものではないことを認めている。彼は、技術が本当にどれほどのゲームチェンジャーなのかについて、まだ疑問を持っている人々がいる理由も理解している。それは人々がどのように働きたいか、そして何をする必要があるかに依存すると彼は考える。「まだあまり有用だと感じない人がいることは理解できます」と彼は言う。

彼は、1年前には生成コーディング技術の最も基本的なバージョンであるオートコンプリートさえ使用していなかったと私に語った。「私はコードに関しては非常に几帳面です」と彼は言う。「可能であれば、すべて手動でvimに入力したいのです」(vimは、マウスの代わりに何十ものキーボードショートカットを使用して対話する、多くの熟練プログラマーに好まれるテキストエディタである)。

しかし、最新のモデルが何ができるかを見たときに変わった。彼はまだ複雑な設計タスクを任せないが、いくつかのアイデアを試したいだけのときは時間の節約になる。「以前ならコーディングに1週間かかった実験を、週末に実行できるようになりました」と彼は言う。

「私は、主導権を握って全体を設計させるレベルには達していないと思います」と彼は付け加える。「しかし、1週間かかることを実行するのを見れば—それは議論の余地がありません」

パチョツキのゲームプランは、Codexのようなツールが現在持っている問題解決能力を強化し、それを科学全体に適用することだ。

ダウニーは、自動研究者のアイデアは非常にクールだと同意する。「明日の朝戻ってきて、エージェントがたくさんの作業を完了していて、検討できる新しい結果があるなら、それはエキサイティングでしょう」と彼は言う。

しかし彼は、そのようなシステムの構築はパチョツキが言うよりも困難かもしれないと警告する。昨夏、ダウニーと彼の同僚はいくつかの科学タスクでトップクラスのLLMをテストした。OpenAIの最新モデルGPT-5がトップに立ったが、それでも多くのエラーを犯した。

「タスクを連鎖させる必要がある場合、連続してそのうちのいくつかを正しく行う確率は低下する傾向があります」と彼は言う。ダウニーは事態は急速に進展し、GPT-5の最新バージョンをテストしていないことを認める(OpenAIは2週間前にGPT-5.4をリリースした)。「だから、それらの結果はすでに古くなっているかもしれません」と彼は言う。

深刻な未解決の問題

私はパチョツキに、人間の監視がほとんどない状態で、単独で大規模で複雑な問題を解決できるシステムに伴うリスクについて尋ねた。パチョツキは、OpenAIの人々がそのようなリスクについて常に話していると言う。

「AIがAI研究を含む研究を実質的に加速しようとしていると信じるなら、それは世界における大きな変化です。それは大きなことです」と彼は私に語った。「そして、それは深刻な未解決の問題を伴います。もしそれが非常にスマートで能力があり、研究プログラム全体を実行できるなら、何か悪いことをしたらどうなるでしょうか?」

パチョツキの見方では、それはいくつかの方法で起こり得る。システムが制御を失うかもしれない。ハッキングされるかもしれない。あるいは、単に指示を誤解するかもしれない。

これらの懸念に対処するためにOpenAIが現在持っている最良の技術は、推論モデルが作業中に行っていることの詳細を共有するようトレーニングすることだ。LLMの監視を維持するこのアプローチは、思考連鎖(chain-of-thought)モニタリングとして知られている。

要するに、LLMはタスクをステップごとに進める際に、一種のスクラッチパッドに何をしているかのメモを書き込むようトレーニングされている。研究者はそのメモを使用して、モデルが期待どおりに動作していることを確認できる。昨日、OpenAIは社内でCodexを研究するために思考連鎖モニタリングを使用している方法について新しい詳細を公開した。

「大規模なデータセンターで、システムが主に自律的に長時間動作するようになると、これは私たちが本当に依存することになるものだと思います」とパチョツキは言う。

アイデアは、他のLLMを使用してAI研究者のスクラッチパッドを監視し、問題になる前に望ましくない行動を検出することであり、その悪い行動を最初から起こらないようにしようとするのではない。LLMは、私たちが完全に制御するには十分に理解されていない。

「この問題が解決されたと本当に言えるようになるまでには、長い時間がかかると思います」と彼は言う。「システムを本当に信頼できるようになるまで、間違いなく制限を設けたいでしょう」パチョツキは、非常に強力なモデルはサンドボックスにデプロイされ、壊す可能性のあるものや害を引き起こすために使用されるものから切り離されるべきだと考えている。

AIツールはすでに新しいサイバー攻撃を考え出すために使用されている。一部の人々は、それらが生物兵器として使用される合成病原体を設計するために使用されることを懸念している。ここにはあらゆる種類の悪の科学者の恐怖話を入れることができる。「私たちが想像できる心配なシナリオが確実にあると思います」とパチョツキは言う。

「それは非常に奇妙なものになるでしょう。ある意味で前例のない、非常に集中された力です」とパチョツキは言う。「OpenAIやGoogleができるすべての作業を行えるデータセンターを持つ世界を想像してください。過去には大規模な人間組織を必要としたことが、今では数人で行われるようになります」

「これは政府が理解すべき大きな課題だと思います」と彼は付け加える。

しかし、一部の人々は政府が問題の一部だと言うだろう。例えば、米国政府は戦場でAIを使用したいと考えている。最近のAnthropicとペンタゴンとの対立は、この技術がどのように使用されるべきであり、使用されるべきでないかについてのレッドラインをどこに引くかについて、社会全体でほとんど合意がないことを明らかにした—ましてや誰がそれを引くべきかについての合意はなおさらだ。その論争の直後、OpenAIは競合他社ではなくペンタゴンと契約を結ぶために前進した。状況は依然として不明確だ。

私はこれについてパチョツキに迫った。彼は本当に他の人々がそれを理解することを信頼しているのか、それとも未来の主要な設計者として個人的な責任を感じているのか?「私は個人的な責任を感じています」と彼は言う。「しかし、これがOpenAIだけで、特定の方法で技術を推進したり、製品を特定の方法で設計したりすることで解決できるとは思いません。政策立案者からの多くの関与が必要になるでしょう」

それは私たちをどこに導くのか?私たちは本当にパチョツキが想定するようなAIへの道を歩んでいるのか?アレン研究所のダウニーに尋ねたとき、彼は笑った。「私はこの分野に数十年間いますが、特定の能力がどれほど近いか遠いかについての予測をもう信頼していません」と彼は言う。

OpenAIの明記された使命は、人工汎用知能(多くのAIブースターがほとんどの認知タスクで人間に匹敵すると信じている仮想の将来技術)が全人類に利益をもたらすことを確実にすることだ。OpenAIはそれを最初に構築することを目指している。しかしパチョツキが会話でAGIに言及した唯一の機会、彼は「経済的に変革的な技術」について話すことで彼が意味することをすぐに明確にした。

LLMは人間の脳のようではない、と彼は言う。「それらは、人々が話していることで主にトレーニングされているため、いくつかの点で表面的に人々に似ています。しかし、それらは本当に効率的であるように進化によって形成されたわけではありません」

「2028年までに、すべての面で人々と同じくらいスマートなシステムができるとは期待していません。それは起こらないと思います」と彼は付け加える。「しかし、それが絶対に必要だとも思いません。面白いのは、非常に変革的であるために、すべての面で人々と同じくらいスマートである必要はないということです」

Will Douglas Heaven


分享網址
AINews·AI 新聞聚合平台
© 2026 AINews. All rights reserved.