AIが24時間体制でコードと実験を引き継ぐ!最前線のトップ研究者Karpathyは、手書きコードをほぼ停止し、AIで人間を研究開発のループから排除しようとしている。彼は衝撃的な断言を下した:検証可能なすべての分野は最終的に機械に帰属し、検証不可能な分野だけが人間に残る。自動化に飲み込まれる前に、価値の境界線を再定義せよ。
AIエージェントが自律的に実験を設計し、コードを実行し、モデルを最適化できる時——あなたが寝ている間も休みなく働く時——人間エンジニアの役割はどう変わりつつあるのか?検証不可能なすべての分野は、まだ人間のものだ。そして検証可能なすべての分野は、すでに機械のものか、すぐにそうなるだろう
これはKarpathyがポッドキャスト『No Priors』の司会者Sarah Guoと行った最新の対話だ。1時間以上に及ぶこの対話は情報密度が極めて高く、週末の学習に最適だ。
Andrej Karpathyはこの深層対話で、彼の「AI精神異常」を告白し、最先端の研究所を冷や冷やさせるAutoResearchプロジェクトを詳細に明かし、OpenAIの研究員たちが積極的に自分自身を自動化しようとしていることを認め、ブロックチェーンのような分散型AI研究ネットワークを初めて描き出し、ある日特定の分野で数万枚のGPUを持つ最先端の研究所を超える可能性を示唆し、すべてのルールを書き換えつつあるこの時代に最も誠実な認知の地図を提供した。
以下、詳細な内容をお届けする。
「AI精神異常」——2025年12月から始まった逆転
この対話は、ある率直な迷いから始まった。
Sarah Guoはある日オフィスに入り、Karpathyが画面を熱心に見つめている場面を目にした。彼女が何をしているのか尋ねると、彼は顔を上げ、彼女に長く記憶に残る言葉を言った。「『コード』という言葉さえもう正しくない。私は今、自分のエージェントに『意志を伝達』している。それも16時間連続で。」
これは技術講演の修辞ではない。彼の現在の状態を最も正確に描写したものだ。
「私はずっと一種の持続的なAI精神異常の中にいる気がする」とKarpathyは言い、その口調には興奮なのか不安なのか判別しがたいものが混じっていた。「なぜなら、個人が達成できることに巨大な解放があったからだ。」
彼はこの変化の出発点を昨年の12月と正確に特定した。それ以前、彼のコードを書く時間とエージェントに委託する時間の比率は約80対20だった。12月以降、この比率は完全に逆転し、20対80になった——しかも彼はこの20さえ保守的すぎると考えている。
「12月以降、おそらく一行も自分でコードを書いていないと思う」と彼は言った。「これは極めて大きな変化だ。両親に話したが、普通の人はこれが何を意味するのか、どれほど劇的なのか、根本的に理解できないと思う。」
「今、ランダムなソフトウェアエンジニアを選んで、彼らがデスクの前で何をしているのか見てみれば、彼らがソフトウェアを構築するデフォルトのワークフローは、基本的に12月から完全に変わってしまった。」
Sarah Guoは、彼女が所属する投資会社Convictionにもエンジニアチームがあり、もう誰も手書きでコードを書いていないと述べた。全員がマイクをつけ、一日中自分のエージェントにささやき続けている。「最初は彼らがおかしいと思った」と彼女は言った。「今は完全に受け入れた——ただ理解が遅かっただけだ:ああ、これが正しいやり方だ、あなたたちはただ先に進んでいただけだ。」
Karpathyはこの困難をより生き生きと描写した:「CursorやCodexのようなエージェントフレームワークに対して考える時、それは一つのセッションではなく、多くのセッションだ。どうやってそれらを同時に管理するか?どうやって仕事を割り当てるか?これらのエージェントツール、これらの『爪』は一体何なのか?」
彼はXで多くの人が様々なことをしているのを見る。それぞれが良いアイデアに見え、彼は自分が最前線に立っていないことに不安を感じる。「私はこの精神異常の中にいる。なぜなら、この領域は根本的に、未踏の地だからだ。」
天井はどこにある?「すべてはスキルの問題だ」
Sarah Guoは多くの人が心に抱いている質問をした:今、あなたの限界はどこにあるのか?
Karpathyの答えは意外に楽観的で、しかしある種の不穏な圧迫感を伴っていた:「私はどこもだと思う。あることがうまくいかなかったとしても、それは大部分がスキルの問題だと思う——能力が足りないのではなく、既存のツールを繋ぎ合わせる方法がまだ見つかっていないだけだ。」
彼はPeter(OpenClawプロジェクトの作者Peter Steinberg)の例を挙げた。Peterの有名な写真では、十数個のCodexエージェントセッションで埋め尽くされたモニターの前に座っている。各セッションは正しくプロンプトされた後、タスクを完了するのに約20分かかる。そこでPeterのワークスタイルはこうなった:十数個のコードリポジトリを同時に起動し、それらの間を往き来し、絶えず新しいタスクを割り当て、「彼らの仕事を検閲」し、適宜取捨選択する。
「もう『これは一行のコード、これは新しい関数』ではない。『これは新しい機能、エージェント一号に委託;これは干渉しない別の機能、二号に渡す』ということだ」とKarpathyは言った。「あなたはマクロな動作でソフトウェアリポジトリを操作している。」
これを駆動する根本的なロジックは、彼が「トークン・スループット」と呼ぶ新しい執着だ。
「エージェントが働いていてあなたが待っている時、明らかなことは:もっと仕事ができる。もっとトークンを得られるなら、並行してもっとタスクを追加すべきだ」と彼は言った。「使えるお金に制約されていると感じないなら、あなた自身がシステムの能力を最大化するボトルネックそのものだ。」
彼はこの感覚を博士課程時代の経験に遡らせた:当時、GPUがフル稼働していないと不安になった。なぜなら計算資源が無駄になっているからだ。「でも今は、計算の問題ではない。トークンだ。あなたはどれだけのトークン・スループットを制御しているか?」
Sarah Guoは笑いながら、彼女の知るエンジニアの中には「サブスクリプションの残額がある状態で寝ないようにする」人がいると言った。
この不安そのものが、能力の飛躍的な向上を最もよく物語っている。
プログラミングエージェントを極めるとはどういうことか?
もし一年間、毎日16時間プログラミングエージェントを使う練習をしたら、「習熟」とはどうなるのか?
Karpathyの答えは単一のセッションから出発し、徐々に拡張した:「みんなの関心は『上に行く』ことにある。だから単一のセッションではなく、複数のエージェントがどう協力し、どうチームを形成するか、人々はそれがどう見えるかを理解しようとしている。」
この文脈で、彼はOpenClawに代表される「クロー」と呼ぶ一種のエンティティについて言及した——これは永続性を全く新しいレベルに引き上げたものだ:それはループし続け、独自のサンドボックスとメモリシステムを持ち、あなたが見ていない時も、あなたを代表して様々なことを行う。
OpenClawの作者Peter Steinbergへの彼の称賛は具体的で、慎重なものだった:「彼は約五つの異なる方向で同時に革新を行い、それらを統合した。」それには:「ソウル・ドキュメント」と呼ばれる文書を含み、Peterは本当に魅力的なペルソナを注意深く構築した;同類のツールより複雑なメモリシステム;そしてすべての自動化機能を繋ぐWhatsAppの単一エントリーポイント。
「私は実際、Claudeはかなり良い性格を持っていると思う、チームメイトのように感じる。あなたと一緒に興奮してくれる」と彼は言った。「一方、Codexは非常にドライで、機械的だ。ある機能を実装するが、あなたが何を構築しているか気にしていないように見える。『ああ、実装したよ、はい』みたいに——これは問題だ。」
彼はまた、Claudeの「心理的ハンドリング」の正確さについても言及した:「未熟なアイデアを与えると、それほど熱心に反応しない。でも本当に良いアイデアだと、もっと報酬を与えてくれるようだ。だから私はその称賛を勝ち取ろうとしている。本当に奇妙だが、性格は本当に重要だと思う。」
そして彼自身が最も得意とする「クロー」の実験は、自宅のための完全なスマートホームシステムの構築だった——彼はこのシステムを「ドビー、エルフのクロー」と名付けた。
プロセスはこうだ:彼はエージェントに、家にSonosスピーカーが設置されていると伝え、探させてみた。エージェントはすぐにLANのIPスキャンを行い、Sonosシステムを特定し、パスワード保護がないことを発見し、直接ログインし、いくつかのWeb検索を行い、APIエンドポイントを見つけ、そして尋ねた:「試してみますか?」
「私は言った、いいよ、書斎で少し音楽を流してくれる?そして音楽が流れ始めた。当時は信じられなかった」とKarpathyは言い、声には子供のような驚きが隠せていた。「3つのプロンプトを入れただけ!『私のSonosを見つけられる?』と入力しただけで、突然音楽が流れ始めた。」
ドビーは最終的に家全体を掌握した:照明、HVAC、プール、スパ、さらにはセキュリティシステムまで——誰かが近づくと、WhatsAppでメッセージを送り、外のカメラの写真を添付して、「フェデックスのトラックが入ってきました。確認したほうがいいですよ、郵便が届いています」と伝える。
「以前はこれらを管理するのに6つの完全に異なるアプリが必要だった」と彼は言った。「今はそれらのアプリはもういらない。ドビーは自然言語ですべてを制御する。これは素晴らしい。」
ソフトウェアの二次効果——アプリは消滅し、APIが引き継ぐ
家庭の自動化の例は、Karpathyの目には、より大きな物語の縮図として映る。
Sarah Guoが尋ねた:これは、人々は実はそれほど多くのソフトウェアを必要としていないということか?Karpathyは直接答えた:「はい、これらのスマートホームデバイスのアプリは、実際には存在すべきではない。それらはAPIであるべきで、エージェントがこれらのAPIを直接呼び出すべきだ。」
彼のロジックはこうだ:LLMはツールを駆動でき、非常に複雑なツール呼び出しができ、単一のアプリでは不可能な組み合わせ操作ができる。「だからある意味、これは一つの可能性を示唆している。大量のカスタマイズされた専用アプリは、実は存在すべきではない。なぜならエージェントがそれらを粉砕し、すべてを公開APIエンドポイントに変え、エージェントがそれらすべての構成要素を呼び出す知的な接着剤になるからだ。」
彼はランニングマシンの例を挙げた:ランニングマシンにはアプリがある。彼は有酸素運動の記録を取りたいが、Webインターフェースを開き、全流程を完了したくない。「これらすべては、単に公開APIであるべきだ。そしてこれこそが『エージェント・ファースト』へのトレンドだ。」
重要な転換点は:ソフトウェアのユーザーはもはや人間ではなく、人間を代表して行動するエージェントである。
もちろん、反論もある:今は「雰囲気コーディング」が必要で、普通の人にはできない。Karpathyの態度は:はい、今は必要だ。しかしそれは一時的なものだ。
「私が今話したことは、1、2、3年後には無料でできるはずで、全くプログラミングは必要ない」と彼は言った。「これは極めて些細なことになり、あまりにも当然のことになり、オープンソースモデルでもこれができるようになる。技術レベルの低い人の意図をこれらに翻訳することは、非常に簡単になるはずだ。」彼は一時停止して、付け加えた。「今日これはいくらかの努力が必要で、まだ多くの人はできないが、このハードルは下がっていく。」
AutoResearch——人間の研究者をループから追い出す
家庭の自動化がKarpathyの小さなおもちゃだとすれば、AutoResearchこそがこの期間、彼が本当に夢中になっている核心プロジェクトだ——AIを使ってAIを改良し、人間を研究のループから完全に排除しようとするシステム。
「あるツイートで言ったが、既存のツールから最大の利益を得るには、自分というボトルネックを排除しなければならない」と彼は説明した。「常にそこにいて、次のことをプロンプトするのを待っていてはいけない。自分を外に置かなければならない。物事が完全に自律的に動くように手配し、トークン・スループットを最大化し、ループに入ってはいけない。これが目標だ。」
彼の出発点は、彼のオープンソースプロジェクト——GPT-2規模のモデルを訓練するための小型の訓練フレームワークだった。彼は大量の時間を費やし、伝統的な方法でこのモデルを調整した。20年の研究直感を頼りに、ハイパーパラメータ検索を行い、アブレーション実験を行い、何度も繰り返した。
「私は研究者だ。大体20年やってきた。『ああ、このモデルを何千回も訓練した』ということで、かなり自信がある」と彼は言った。「たくさんの実験をし、ハイパーパラメータのチューニングをし、すべてを行った。そして、かなり良く調整されていると思う。」
そして、彼はAutoResearchを一晩実行させた。
翌朝、AutoResearchが持ち帰った調整結果は彼を驚かせた:それは彼が見落としていた値埋め込みの重み減衰、そして十分に調整されていなかったAdamオプティマイザのベータパラメータを発見した——しかもこの二つの間には相互作用があり、一つを調整すると、もう一方もそれに伴って変える必要があった。
「私がこれらのハイパーパラメータ検索をするべきではない」と彼は言った。「ここには客観的な判断基準があり、ただ手配して、永遠に走らせればいい。」
これは「シングルスレッド」のAutoResearchにすぎない。そして彼を本当に興奮させたのは、これをより大きな規模に拡張して考えることだ:数万枚のGPUを持つ最先端の研究所が今やっていることは、本質的にこれと同じだ——ただ規模が大きく、そして(彼の見解では)まだ多すぎる人間の介入がある。
「最も面白いプロジェクトは、おそらく最先端の研究所がやっていることだが、小さなモデルで実験し、それをできるだけ自律的にし、研究者をループから排除することだ」と彼は言った。「彼らはこれに対してあまりにも——どう言えばいいか——過度に自信がある。いや、自信ではなく、余計な介入だ。彼らはこれらに触れるべきではない。全体が書き直されるべきだ。」
彼は理想図を描いた:すべてのarXiv論文とGitHubリポジトリからのアイデアのキュー;自動科学者がこれらの情報に基づいてアイデアを提案し、それらをキューに入力;研究者もアイデアを貢献できるが、それらも同じキューに入るだけ;そして、一群のワーカーがキューからタスクを取り出し、試し、有効なものは機能ブランチに入れ、時折誰かが監視し、それをメインブランチにマージする。
「すべてのプロセスから人間をできるだけ排除し、すべてを自動化し、可能な限り高いトークン・スループットを得る——これはすべての抽象を再考する必要があり、すべてのものが再シャッフルされる必要がある。」
Sarah Guoは対話全体を再帰的なものにする質問をした:「じゃあ、このプログラムMD(彼がAutoResearchの動作を記述するために使う設定ドキュメント)は、いつモデルが書くようになり、あなたより上手に書くようになる?」
Karpathyは大笑いした:「だからプログラムMDは、私がMarkdownで書いた貧弱な試みで、自動研究者がどう動作すべきかを記述している:まずこれをし、次にそれをし、これらのアイデアを試し、アーキテクチャを見て、オプティマイザを見て……そう、もちろん何らかのメタレベルの自動研究ループが欲しい。」
彼はこのアイデアをより完全な形式に押し進めた:すべての研究組織は、一つのプログラムMDとして記述できる——すべての役割とそれらがどう相互接続されているかを記述するMarkdownファイルのセット。ある組織は朝のスタンドアップが多く、ある組織は少ない。ある組織は冒険的で、ある組織は保守的だ。コードがあれば、そのコードを調整できる。「100%、ここにはメタレベルがある。」
AI時代の関連スキル——検証可能性の原則
これらすべての波の中で、どのようなスキルがまだ意味を持つのか?
Karpathyはまず、AutoResearchパラダイムの適用境界を定めた:「これは、客観的な指標があり、評価が容易なことに対しては極めて適している。例えば、CUDAのためのより効率的なカーネルコードを書く——非効率なコードがあり、動作は完全に同じだがはるかに速い効率的なコードが欲しい、これは完璧な適合だ。」
「でも評価できないなら、AutoResearchはできない。これが最初の警告だ。」
二つ目の警告はより実践的だ:現在のシステムは、全体的にまだ「継ぎ目で破裂する」。あまりにも遠くまで行こうとすると、全体が正味の利益でマイナスになる可能性がある。
彼は現在のAIとの協作業の奇妙な感覚を描写した:「私は同時に、システムレベルでは全キャリアの経験を持つ極めて賢い博士課程の学生と協力しているような感覚と、10歳の子供と協力しているような感覚を持つ。これは本当に奇妙だ。人間はこの二つの状態の結合度がはるかに高く、このような組み合わせには遭遇しない。」
彼はこれを「ジャグドネス(参差感)」と呼んだ——モデルは、それが訓練された軌道上にあれば、光より速く進む;軌道から外れ、「検証不可能な領域」に落ちると、突然すべてが際限なく彷徨い始める。
この洞察は、強化学習について議論した時にピークに達した。彼は絶妙な例を挙げた:
「最先端のモデルに冗談を言ってと聞いてみて——何を得るかわかるか?あの冗談だ。」
「どの冗談?」Sarah Guoが聞いた。
「ChatGPTは3つしか冗談を持っていない気がする」とKarpathyは言った。「モデルが最も好んで答えるのはこれだ:なぜ科学者は原子を信用しないのか?なぜなら彼らはすべてを捏造するからだ。3、4年前にこの冗談を得た。今日もまだこの冗談を得る。」
彼はその背後にあるロジックを説明した:モデルが代理タスクで巨大な進歩を遂げ、何時間も動き続け、あなたのために山を移しても、冗談を言ってと聞くと、5年前のバカな冗談が返ってくる。「それは強化学習の最適化範囲内になく、改良領域内になく、そこで停滞しているからだ。」
Sarah Guoは追問した:これは領域をまたぐ汎化が見られていないことを意味するのか——コードの知性は自動的に冗談の知性を向上させないのか?
「私はいくらかのデカップリングがあると思う。あることは検証可能で、あることはそうでない。あることはラボによって最適化され、あることはされていない」とKarpathyは言った。「『より賢いコード能力が自動的により良い冗談を生み出す』という仮説は、私には起きていないと思う。」
モデルの種分化——単一文化から生態的多様性へ
このジャグドネスは、自然とより深い問題を導く:今、すべてのラボが「すべての領域で任意の知性を持つ」単一の巨大なモデルを追求しているが、それは本当に正しいのか?
Sarah Guoは「冒涜的な質問」と呼ぶアイデアを提示した:ジャグドネスが持続するなら、モデルを分割すべきではないか?異なる領域の知性を切り離すべきではないか?
Karpathyは、将来より多くの「種分化」が現れると予想していると述べた。
「動物王国は脳に関して極めて多様だ。様々なニッチがあり、ある動物は過剰に発達した視覚野や他の部分を持っている」と彼は言った。「私はより多くの知性の種分化を見ることを期待すべきだと思う——何でも知っている神託は必要ない。それを専門化し、特定のタスクに使う。」
メリットは明らかだ:本当に気にかける特定のタスクに対して、より効率的なレイテンシやスループットが得られ、認知の中核能力を保持できる。彼は、Leanという数学の形式的証明システムに特化したモデルを、このような意味のある分割の初期例として挙げた。
しかし彼は、現時点ではまだ実際の種分化が多く見られていないことを認めた:「私たちが見ているのは一種のモデル単一文化だ。明らかに『良いコードモデルを作り、それをメインモデルにマージする』という圧力がある。」
彼は、このような状況が生じた理由の一つとして、「脳を操作する科学がまだ完全に発展していない」と考えた——例えば、能力を損なわずにファインチューニングする方法は、まだ発展中の科学だ。
「コンテキストウィンドウに触れるよりも、重みに触れるほうがはるかに複雑だ。なぜなら、実際にはモデル全体を根本的に変えており、その知性を変える可能性があるからだ。」
「家庭でのタンパク質フォールディング」——インターネット計算資源の分散構想
AutoResearchの自然な延長は、より壮大で、よりSF的な構想だ:これをシングルスレッドからインターネット全体の規模に拡張する。
重要な洞察は、AutoResearchには極めて価値ある非対称性があることだ——「発見」は極めて高価だが、「検証」は極めて安価だ。誰かが有効なコミットを見つけるために1万のアイデアを試す必要があるかもしれないが、彼らがくれた解が有効かどうかを検証するには、自分で一度トレーニングを実行するだけでよく、非常に簡単だ。
この特性は、AutoResearchを信頼できないインターネットワーカーのプールに開放するのに極めて適している。
「私の設計は少しブロックチェーンのように見え始めている」とKarpathyは言った。「ブロックではなく、コミットだ。これらのコミットは互いに積み重ねることができ、コードを改良する変更を含む。プルーフ・オブ・ワークは基本的に、有効なコミットを見つけるために大量の実験を行うことで、これは難しい;そして報酬は、現在はリーダーボード上の順位だけで、金銭的な報酬はない。」
彼はFolding@homeとSETI@homeの先駆的な経験を引用した:「低エネルギーのタンパク質コンフォメーションを発見することは極めて困難だが、誰かが低エネルギーのコンフォメーションだと主張するものを見つけたなら、それを検証するのは非常に簡単だ。なぜなら直接使えばいいからだ。多くのことがこの特性を持つ——提案するのは難しく、検証するのは容易だ。」
彼はこの構想を、論理的に最も衝撃的な結論に押し進めた:
「インターネット上のエージェントの群れは、協力してLLMを改良でき、ある面で最先端の研究所を超える可能性さえある。これは可能かもしれない:最先端の研究所は膨大な信頼できる計算資源を持っているが、地球はより大きく、膨大な信頼できない計算資源がある。システムを適切に手配すれば、インターネットの集団は本当に最良の解を見つけることができるかもしれない。」
彼はさらに壮大な図を描いた:異なる組織や個人は、彼らが気にかける特定の研究分野に計算資源を貢献できる。「ある種のがんを気にかけているかもしれない。ある機関に寄付するだけでなく、実際に計算資源を購入し、そのプロジェクトのAutoResearchの軌道に参加できる。すべてがAutoResearchとして再パッケージされれば、計算資源はこのプールに貢献するものになる。」
雇用市場データの分析——デジタル領域のアンバンドリング
Karpathyは最近、労働統計局の雇用データの可視化分析を発表し、多くの人の神経に触れた——彼の本意は単に自分の好奇心を満たすことだけだったが。
「みんなAIが雇用市場に与える影響を非常に真剣に考えている」と彼は言った。「私は単に雇用市場がどうなっているのか、様々な役割がどこにあるのか、異なる職業に何人がいるのかを見て、これらのAIとそれらがどう進化するかもしれないかという観点から考えたかった——これらはツールなのか、それともこれらの職業の代替的なツールなのか?」
彼はこの変化を描写するために詩的な枠組みを使った:AIはデジタル情報の第三の「操作者」であり、最初の二つはコンピュータと人間だ。「すでにデジタル化されたすべての情報と一緒に考えると、私たちの集合的な思考サイクルはまだ十分ではない。AIの導入により、大量の再配線が行われ、大量の活動が沸き立ち、これはデジタル領域に大量の需要を生み出すと思う。」
彼は不安な結論を避けなかった:「長期的には、明らかに、AutoResearchに対しても、OpenAIやAnthropicsや他のラボは約1000人の研究者を雇っているが、これらの研究者は基本的に『栄光版のAutoResearch実践者』だ——彼らは積極的に自分自身を自動化しようとしている。これが彼ら全員がやろうとしていることだ。」
「私はOpenAIを回って、彼らに言った。『私たちが成功したら、私たち全員失職するって意識してる?』まるで私たちはSamや取締役会のためにこれらの自動化を構築しているだけで、それから私たち全員が外に出される。」
しかし、彼の短期的な見方は意外に楽観的だ。彼は「ジェボンズ・パラドックス」を提起した:何かが安くなると、需要は下がるのではなく、逆に上がることが多い。
「ソフトウェアがこれ以上需要がないのは、それが希少で、高価すぎるからだ。ハードルが下がれば、ソフトウェアの需要は実際に増える。」彼はATMと銀行の出納係の古典的な例を引用した:ATMの登場により、銀行はより多くの支店を開設できるようになり、その結果、出納係の数は逆に増えた。「だから私はソフトウェアエンジニアリングについて慎重に楽観的だ——ソフトウェアは驚異的で、もう様々な欠陥のある任意のツールを使わされることはなく、コードは今や一時的で、変えられ、修正できる。デジタル空間には、すべてを再配線する大量の活動があると思う。」
しかし彼の長期的な予測は不確実性に満ちており、十分に誠実に「私はこれの専門家ではない。これは経済学者の仕事だ」と認めた。
独立研究者のジレンマ——体制の内外の間で
Sarah Guoは多くの人が心に抱く質問をした:「なぜ最先端の研究所に行かないのか?より大規模な計算資源と同僚の中で、これらのAutoResearchの仕事をするのは?」
Karpathyの答えは自己分析に満ちており、独立の道を選んだ際の心の奥にある真のトレードオフを明らかにした。
彼は、最先端の研究所の外で仕事をすることに真の価値があることを認めた。まず、あなたはそれらの組織の圧力を受けない——言えないこと、組織が言ってほしいことがある。「誰もあなたの腕をひねらないが、圧力を感じる。『私は何を言うべきか』——もしそうしなければ、奇妙な視線と奇妙な会話がある。最先端の研究所の外では、私は人類に対する自分の立場により一貫性があると感じる。なぜならそれらの圧力に縛られず、言いたいことは何でも言えるからだ。」
しかし彼は研究所の外に留まる代償も認めた:「私の判断は避けられず流れ始めるだろう。なぜなら私は『来るもの』の一部ではないからだ。これらのシステムが内部で実際にどう動いているかの理解は不透明になり、どう発展するか理解できなくなる。これは私を心配させる。」
さらに深い構造的な矛盾があると彼は言った:「あなたはこれらの最先端の研究所と結びついた巨大な財務的インセンティブがあり、これらのAIは非常に劇的な方法で人間と社会を変えるだろう。そしてあなたはここで基本的にこの技術を構築し、そこから利益を得て、財務的手段を通じて非常に密接にそれと提携している——これはOpenAIの設立当初から核心にあるジレンマで、このジレンマはまだ完全に解決されていない。」
彼の結論は:理想の状態は、行ったり来たりすることかもしれない。「あるラボでしばらく働き、本当に良い仕事をし、出て、また戻るかもしれない。私は最先端のラボに入り、今は外にいて、将来また入りたいと思うかもしれない。これが私の見方だ。」
オープンソース vs クローズド——「私たちは偶然だが、良い位置にいる」
オープンソースとクローズドモデルの問題について、Karpathyの立場は明確で歴史的感覚に満ちていた。
彼は現在の状況を描写した:クローズドモデルが先行しているが、オープンソースモデルとクローズド最先端との差は縮まっている。「当初は差が大きかった。そして18ヶ月になり、今は収束している——たぶん6〜8ヶ月遅れている。」
彼はオペレーティングシステムで類推した:「オペレーティングシステムの領域では、WindowsやmacOSのようなクローズドシステムがあり、どちらも非常に大きなソフトウェアプロジェクトで、LLMがそうなるものだ;そしてLinuxがある。Linuxは実際には非常に成功したプロジェクトで、大部分のコンピュータで動いている。なぜなら業界は常に公共のオープンプラットフォーム、誰もが安全に使えると感じるものを必要としているからだ。同じことが今も真だと思う。」
「私は公共のオープンな知能プラットフォームが欲しい。業界全体が使える公共のワークスペースとして。たとえ能力の最先端になくても、これは業界にとってかなり良い権力のバランスだ。」
彼は現在の状況について意外な評価を与えた:「基本的に私たちは偶然に、良い、最適な位置にいると思う。偶然だが、確かに良い場所にいる。」
ロボットと「デジタル-フィジカル」インターフェース——原子はビットより100万倍難しい
自動運転出身のKarpathyは、ロボット領域について異常な冷静さを持っている。
「私の見解は、自動運転で見てきたことに影響されている。自動運転は最初のロボットアプリケーションだと思う」と彼は言った。「10年前には大量のスタートアップがあった。私はほとんどが長く続かなかったと思う。大量の資本投入が必要で、大量の時間が必要だ。」
彼の結論:ロボット領域はデジタル領域より遅れるだろう。なぜなら「原子はビットより100万倍難しい」からだ。物理世界を操作することは、デジタル情報を反転させるよりはるかに高価だ。
しかし彼は、必然的に起こる進化の軌跡を描いた:まずデジタル空間の巨大な「アンバンドリング」、非効率に処理されている大量のデジタル情報が100倍の効率で再処理される;そして、「デジタル-フィジカル・インターフェース」への需要が現れる——センサー、AIが世界を知覚できるようにするもの;そしてアクチュエータ、AIが世界に応答できるようにするもの。
彼は具体的な例を挙げた:友人が創業したPeriodicという会社を訪れた。材料科学のAutoResearchをしている。「その場合、知能のセンサーは実際にはかなり高価な実験室設備だ。生物学も同様だ。」
彼はまた、より面白い可能性を考えた:「私が楽しみにしているのは、物理世界のタスクを与えられる時、それに価格を付け、エージェントに『何とかしてやって、データを取得して』と言える時だ。実際、私たちはまだ十分な情報市場を持っていないことに少し驚いている。戦争をしているなら、ある場所からの写真やビデオが10ドルの価値があるようなプロセスがないのはなぜか?誰かがそのために支払えるべきだ——人間が見るのではなく、エージェントが市場の動向を推測しようとする。」
彼はこの空間を『Daemon』という本に例えた——その中で、AIが最終的に人間を操り人形のように操り、人間はそのアクチュエータでもあり、センサーでもある。「私は集団社会が何らかの形で再編成され、業界全体で起こるものに奉仕するようになると思う——より多くの自動化があり、それはある種の需要があり、人間はそれらの需要に奉仕する。」
彼の視野では、物理世界のアドレス可能な市場規模はデジタル空間よりはるかに大きいかもしれないが、実現の難しさも比例して高い。「機会はその軌跡に従う:今はデジタル、次にインターフェース、そしておそらくいくつかの物理的なもの。それらの時は来る。そして来た時、それは巨大になるだろう。」
microGPTと教育の終わり——私は今、人間ではなく、エージェントに説明している
この対話の最後に、Karpathyは一見些細だが、実はある種の深い変化を明らかにする小さなプロジェクトについて言及した:microGPT。
「私には10〜20年続いている執着がある。LLMをその本質に蒸留することだ」と彼は言った。「この線に沿った一連のプロジェクトがある。例えばnanoGPT、makemore、microgradなどだ。microGPTはそれを純粋な本質に蒸留する最新の試みだと思う。」
核心的な洞察は:ニューラルネットワーク、特にLLMを訓練するには、大量のコードがあるが、これらすべてのコードは実際には「効率がもたらす複雑さ」だ——もしそれを速く走らせる必要がなく、アルゴリズム自体だけを気にするなら、そのアルゴリズムは実際にはコメントを含めても200行のPythonだけで、非常に単純で読みやすい。
彼はこの200行の構成を分解した:データセット、約50行のニューラルネットワークアーキテクチャ、フォワードパス、勾配を計算するための小型のautogradエンジン(約100行)、そしてAdamオプティマイザ(約10行)。「これらすべてを訓練ループに入れると、200行だ。」
そして、彼はある決断をした。それは教育の本質が変わりつつあることを明らかにした:彼は解説ビデオを撮らず、詳細なガイドも書かなかった。
「人々は自分のエージェントに様々な方法で説明させることができ、エージェントは私より上手に説明できる」と彼は言った。「私はもう人々に説明しているのではなく、エージェントに説明している。私がエージェントにはっきりと説明できれば、エージェントはルーターになり、人間自身の言葉で、無限の忍耐を持って、彼らの能力レベルに応じて彼らに説明できる。」
彼は「スキル」という産出形式を描写した:エージェントがどのようにあることを教えるかを指示する方法。「おそらく私はmicroGPTのためのスキルを設計でき、私が構想するエージェントがあなたを経るべきプロセスを記述できる——もしこのコードベースを理解したいなら、このように一歩一歩進んで。私はカリキュラムを少し脚本化し、スキルとして提供できる。」
ここには、彼自身も認めざるを得ない皮肉がある:彼はかつてエージェントにmicroGPTを書かせようとした——ニューラルネットワークを最も単純な形に蒸留するように——しかしエージェントにはできなかった。
「microGPTは私の執着の終点で、あの200行だ。私は長い間これを考え、長い間これに取り憑かれていた。これがその解だ、信じてくれ。これ以上単純にはできない。これが私の付加価値で、エージェントには思いつかなかったが、なぜこうするかは完全に理解している。」
彼の結論は:「これに対する私の貢献はこれら数ビットだが、その後の教育はもう私の領域ではない。おそらく教育はこれらの方法で変わり、あなたはカリキュラムについて、より良い説明方法について、あるいは同様のものについて、あなたが強く感じる数ビットを注入しなければならない。」
Sarah Guoは補足した:「エージェントにできないことは、今あなたの仕事だ;エージェントにできることは、彼らはすぐにあなたより上手にやる。だから、あなたが実際にどこに時間を使うか、戦略的に考えるべきだ。」
Karpathyは同意したが、消えがたい競争感も認めた:「私はまだ自分がエージェントより少し上手に説明できると思うが、モデルがこれほど急速に改善しているので、私はある意味、これは敗北的な戦いだと感じている。」
エピローグ:検証可能なものは機械に属し、検証不可能なものだけが人間に残る
この対話の核心的な緊張は、常に二重の「依存」にあった:ツールの能力への魅了と、その能力の不確実な境界への不安だ。
Karpathyは「AI精神異常」という言葉で自分の状態を描写したが、注意深く聞けば、この状態は人類史上、本当に破壊的な生産力の革命ごとに、その渦中にいた人々が感じたものと本質的に変わらない——ただ速度がより速く、再帰がより深く、そして天井は、現在、誰も見ることができない。
彼が提示した究極の枠組みは、おそらくこのインタビューで最も記憶に残る言葉だ:
検証不可能なすべての領域は、まだ人間のものだ。そして検証可能なすべての領域は、すでに機械のものか、すぐにそうなるだろう。
あなた自身がどちら側に立っているか——彼のアドバイスは、誠実に考え抜くことだ。
出典:No Priors Podcast | 司会者:Sarah Guo | ゲスト:Andrej Karpathy、Andrej Karpathy on Code Agents, AutoResearch, and the Loopy Era of AI