Dario Amodeiは最新のインタビューで、2026〜2027年にAIからなる「データセンターの天才国家」が出現すると予測した。その知的密度は数万人のノーベル賞受賞者に匹敵する。財務面では、同社が年間10倍の「恐ろしい」成長を経験していることを明かし、2025年の売上が100億ドルの大台に迫ると予想している。Amodeiは、なぜ数兆ドルを投じてチップを前もって買い占めないのかを説明している:需要の爆発が1年遅れれば、巨額のキャッシュフロー圧力が会社を直接破産に追い込むことになるからだ。
硬・AI
作者 | 董 静
編集 | 硬 AI
AI技術の指数的爆発の前夜に、AnthropicのトップDario Amodeiが業界を揺るがす予測を発表した:私たちは「指数的成長の黄昏」にあり、早ければ2026年には、数万の顶尖脳からなる「データセンターの天才国家」を迎えることになる。
最近、大規模モデルユニコーン企業Anthropicの最高経営責任者Dario Amodeiは、Dwarkesh Patelとの深いインタビューで、同社の驚くべき売上成長率予測を稀に明かし、AGI(汎用人工知能)のタイムライン、計算能力投資の財務ロジック、そして地政学的リスクについて詳しく説明した。Amodeiは、AI技術が量から質への臨界点にあり、今後2〜3年が人類の今後200年の行方を決めると考えている。
(Anthropic最高経営責任者Dario AmodeiがDwarkesh Patelのポッドキャストに出演)
01 AIは指数的成長の末期にある
Dario Amodeiはインタビューの冒頭で、私たちがAI指数成長曲線の終わりに近づいていると指摘したが、世界はまだこの質的変化を十分に認識していない。
GPT-1から今日の専門レベルのモデルまで、AIは「賢い高校生」から「博士レベル」への飛躍を遂げ、プログラミングや数学などの分野では超えさえしており、基盤となるスケーリング法則は一度も失效しておらず、計算能力とデータの投入は明確な収益をもたらし続けている。
指数的成長の魔力は末期の爆発に隠されている。Darioは、Anthropicの年間売上が10倍の飛躍的成長を遂げ、Claude Codeがエンジニアの生産性を倍増させ、モデルのコンテキスト長と汎化能力の急速な突破がすべて「終点が近い」信号を裏付けていると述べた。この成長は単なるパラメータの積み上げではなく、知能の本質的なアップグレードである—データフィッティングから自律的な汎化へ、AIは最後のいくつかの重要な能力のピースを埋めようとしている。
02 「データセンターの天才国家」:2026年の再定義
Amodeiはインタビューで非常に衝撃的な概念—「データセンターの天才国家」(A Country of Geniuses in a Datacenter)を提案した。彼は過去3年間の技術進化を振り返り、AIモデルが「賢い高校生」から「専門家」へと進化したと考えた。
彼は大胆に予測した。2026年または2027年までに、単一のモデルが示す知能レベル、知識の深さ、論理的推論能力は、一人のノーベル賞受賞者と同等であるだけでなく、数万人のトップレベルの天才が協働する集合体と同等になるだろう。
このタイムラインの確実性について、Amodeiは極めて高い自信を示した:
「10年以内にこのビジョンを実現することについて、私は90%の確信を持っている。そして、これが今後1〜2年以内に起こることについては、50/50の可能性と考えている。」
彼は、唯一の変数は地政学的な災害(チップサプライチェーンの断絶など)や社会の激動から来る可能性があると指摘した。
03 売上の急増:1億から100億ドルへの「恐ろしい」曲線
市場が最も注目する財務データについて、AmodeiはAnthropicの目を見張る成長曲線を明らかにした。彼は、同社の売上が「奇妙な年間10倍成長」(bizarre 10x per year growth)を経験していると述べた。Amodeiはインタビューで率直に語った:
「2023年には、0から1億ドルに成長した。2024年には、1億ドルから10億ドルに成長した。そして2025年には、90億〜100億ドルに達すると予想している。この指数的成長は私の予想とほぼ一致しており、今年の最初の月だけで、さらに数十億ドルの売上を追加した。」
Amodeiは、経済拡散速度(Diffusion)の遅れの影響を受けているものの—企業のAI採用には法務審査やコンプライアンスチェックなど長いプロセスが必要だが—技術自体の能力向上がこの狂った成長曲線を推進していると強調した。
04 計算能力の大博打と破産リスク:CEOの財務バランス術
これほど確実な技術的展望があるのに、なぜ今すぐ数兆ドルを借りてチップを買い占めないのか?Amodeiは極めて現実的な財務的説明をした:計算能力の拡張は収入の成長と予測精度と連動させなければならず、そうしなければ壊滅的なリスクに直面することになる。
「もし私が2027年に数兆ドル規模の需要があると予測し、1兆ドル相当の計算能力を前もって購入したが、需要の爆発が1年遅れたり、成長率が10倍から5倍に少し下がったりしただけで、会社の破産を防ぐヘッジ手段は何もない。」Amodeiはこのように説明し、「対数収益法則」に基づく投資リターンには精密な計算が必要だと述べた。
彼は、Anthropicの現在の戦略が「責任ある積極性」であり、つまり投入する計算能力の規模は大きな上昇余地を捉えるのに十分だが、市場の爆発が遅れた場合でも、企業向けビジネスの高い利益率とキャッシュフローのおかげで存続できるというものだと指摘した。
彼は、Anthropicは2028年頃に黒字化できる見込みであり、その時AIは歴史上最も収益性の高い産業の一つになるだろうと予測している。
05 ソフトウェアエンジニアリングの終着点:コードを書くことからエンジニアの代替へ
具体的な適用シーンについて、AmodeiはプログラミングをAIが最初に攻略する要塞と見なしている。彼はAIのソフトウェアエンジニアリング分野での進化を3つの段階に分けた:
- 第一段階:モデルがコード行の90%を書く(すでに実現)。
- 第二段階:モデルがエンドツーエンドのタスクの90%を処理する。バグ修正、クラスター設定、ドキュメント作成など。
- 第三段階:モデルが「実務経験」を持ち、複雑なコードベースのコンテキストを理解し、技術的な方向性を設定できる。
Amodeiは、1〜3年以内に、AIはシニアソフトウェアエンジニアのすべての職務を遂行できるようになると予測している。
「これはエンジニアが失業することを意味するのではなく、生産性の巨大な爆発を意味する。現在のモデルができるのは、コードの補完だけでなく、GPUカーネルの作成などの高難度タスクを直接引き受けることだ。」
Anthropic最高経営責任者Dario Amodeiの深層インタビュー全文翻訳は以下の通り:
06 私たちは何をスケーリングしているのか?
Dwarkesh Patel(以下Dwarkesh): 3年前に話しました。あなたの考えでは、過去3年間で最大の更新は何ですか?当時と今の感覚の最大の違いは何ですか?
Dario Amodei(以下Dario): マクロに言えば、基盤技術の指数的成長は基本的に私の予想通りです。1〜2年の誤差はありますが。私がコードの具体的な発展方向を予測できたかはわかりません。しかし、この指数曲線を見ると、モデルの進歩についての私の予想とほぼ一致しています—賢い高校生から賢い大学生、そして博士や専門家レベルの仕事を始めるようになり、コード分野ではこのレベルを超えています。最先端の進展には少し不均衡がありますが、概ね予想通りです。
最も驚くべきことは、大衆が私たちが指数曲線の終点にどれほど近いかを認識していないことです。私にとって、これは本当に狂っています—圈内でも圈外の人々も—古臭い政治的ホットトピックについて話していますが、私たちはすでに指数曲線の終盤に近づいているのです。
Dwarkesh: 今のこの指数曲線がどのようなものか理解したいです。3年前に最初に聞いた質問は「スケーリングとは何か、なぜ機能するのか?」でした。今は似たような質問がありますが、より複雑に感じます。
少なくとも公衆の視点からは、3年前にはよく知られた公開された傾向があり、複数のオーダーの計算量にわたって、損失関数がどのように改善されるかを見ることができました。今では強化学習のスケーリングがありますが、公開された既知のスケーリング法則はありません。その背後にある原理が何なのかさえ明確ではありません。これはモデルにスキルを教えているのか?メタ学習を教えているのか?今のスケーリング仮説は何ですか?
Dario: 実際には私の仮説は2017年の時と同じです。
前回話したと思うのですが、「大計算ブロック仮説」と呼ばれる文書を書きました。これは言語モデルのスケーリングに特化したものではありませんでした。私が書いた時、GPT-1が出たばかりで、それは多くのものの一つに過ぎませんでした。
当時はロボット工学がありました。人々は推論を言語モデルとは独立したものとして研究しようとしており、AlphaGoやOpenAIのDotaのような強化学習のスケーリングもありました。DeepMindのStarCraft、AlphaStarを覚えている人もいるでしょう。
これはより一般的な文書でした。Rich Suttonは数年後に「苦渋の教訓」を発表しました。この仮説は基本的に同じです。
それは、すべての賢さ、すべての技術、すべての「私たちは何かをするために新しい方法が必要だ」というアイデアは、それほど重要ではないと言っています。重要なのは少数のことだけです。私は7つの項目をリストしたと思います。
一つ目は、どれだけの生の計算能力があるか。二つ目は、データの量。三つ目は、データの品質と分布。広範な分布である必要がある。四つ目は、どれだけ長くトレーニングするか。五つ目は、極限までスケールできる目標関数が必要だ。事前トレーニングの目標関数はそのような目標関数の一つ。もう一つは強化学習の目標関数で、目標があり、その目標を達成するというもの。その中には、数学やコーディングで見られるような客観的な報酬もあれば、RLHFやより高次のバージョンで見られるような主観的な報酬もある。
そして6番目と7番目は正規化または条件付けに関するもので、数値安定性を得るためのもので、大計算ブロックがこの層流方式で流れ、問題に遭遇しないようにする。
これがその仮説であり、私が今も持ち続けている仮説です。これと矛盾するものをあまり見ていません。
事前トレーニングのスケーリング法則は私たちが見た一例です。これらの法則は継続しています。現在広く報告されており、事前トレーニングについて私たちは良い感触を持っています。それは私たちに収益をもたらし続けています。
変化したのは、今や強化学習でも同じことが起こっているのを見ていることです。事前トレーニング段階があり、その上に強化学習段階があるのを見ています。強化学習については、実際には同じです。
他社も一部のリリースで「数学競技—AIMEやその他の競技—でモデルをトレーニングし、モデルのパフォーマンスがトレーニング時間に対数的線形関係で向上する」という内容を発表しています。私たちもこれを見ており、数学競技だけでなく、あらゆる種類の強化学習タスクで見ています。
強化学習のスケーリングは、事前トレーニングで見たスケーリングと同じであることを確認しています。
Dwarkesh: Rich Suttonと「苦渋の教訓」について言及しました。去年彼にインタビューしましたが、彼は実際に大規模言語モデルにあまり同意していません。これが彼の見解かどうかわかりませんが、彼の反対意見をある言い方で言い換えると:真に人間の学習の核心を持つものは、Excelの使い方、PowerPointの使い方、Webの閲覧方法を学ぶために、これらすべての何十億ドルものデータと計算、これらのカスタム環境を必要としない。
これらのスキルを組み込むためにこれらの強化学習環境を使用しなければならないという事実は、私たちが実際に人間の学習アルゴリズムの核心を欠いていることを示唆している。だから私たちは間違ったものをスケーリングしている。これは確かに疑問を提起する。もし人間のような即時学習能力を持つものがあると考えるなら、なぜこれらすべての強化学習スケーリングを行うのか?
Dario: 私はこれが別々に考えるべきいくつかのものを混ぜ合わせていると思います。ここには確かに本当の謎がありますが、それは重要ではないかもしれません。実際、私はそれが重要ではないのではないかと推測しています。
ここに面白いことがあります。一時的に強化学習を除外させてください。強化学習がこの問題で事前トレーニングと何か異なると言うのは実際には誤解を招くと思うからです。
事前トレーニングのスケーリングを見ると、2017年にAlec RadfordがGPT-1を作った時は非常に興味深かったです。GPT-1以前のモデルは、広範なテキスト分布を代表しないデータセットでトレーニングされていました。非常に標準的な言語モデリングベンチマークがありました。GPT-1自体は実際には同人小説の束でトレーニングされました。それは文学作品でしたが、入手できるテキストのほんの一部でした。
当時はおそらく10億語程度で、世界中で見られるかなり狭い分布を代表する小さなデータセットでした。その汎化能力は良くなかった。ある同人小説コーパスでより良くできても、他のタスクにはうまく汎化されなかった。私たちはこれらすべての指標を持っています。他のすべてのタイプのテキストを予測する際のパフォーマンスを測る様々な基準があります。
インターネット上のすべてのタスクでトレーニングした時に初めて—Common Crawlのような一般的なインターネットスクレイピングから、またはRedditのリンクをスクレイピングから(これはGPT-2のために行った)—汎化能力を得始めました。
強化学習でも同じことが起きていると思います。まず数学競技でトレーニングするような単純な強化学習タスクから始まり、コードなどを含むより広範なトレーニングに移行しました。今は多くの他のタスクに移行しています。
ますます汎化能力を得ていると思います。これがある程度、強化学習と事前トレーニングの区別を取り除いています。
しかし、どちらにしても謎があります。事前トレーニングでは数兆トークンを使用しました。人間は数兆語を見ません。だからここには確かにサンプル効率の違いがあります。ここには確かに何か違うものがあります。
モデルはゼロから始まり、より多くのトレーニングが必要です。しかし、トレーニングされた後、100万の長いコンテキストを与えると—長いコンテキストを阻む唯一のものは推論だが—彼らはそのコンテキストで学習し適応するのが非常に得意です。
だから、この質問の完全な答えはわかりません。事前トレーニングは人間の学習プロセスとは似ていないが、人間の学習プロセスと人間の進化プロセスの間にある何かが起きていると思います。
私たちの多くの先験的知識は進化から来ています。私たちの脳は単なるタブラ・ラサではありません。これについての本が書かれています。言語モデルはタブラ・ラサに似ています。彼らは本当にランダムな重みから始まりますが、人間の脳は、これらすべての入出力に接続された領域を持って始まります。
事前トレーニング—そして強化学習—は、人間の進化と人間の即時学習の間の中間空間に存在すると見なすべきかもしれません。モデルが行うコンテキスト学習は、人間の長期学習と短期学習の間にあるものと見なすべきです。
だから階層構造があります。進化があり、長期学習があり、短期学習があり、人間の即時反応があります。大規模言語モデルの各段階はこのスペクトル上に存在するが、必ずしも全く同じ点にあるわけではありません。
人間の学習モードに対応する類似物がないまま、大規模言語モデルはこれらの点の間にあります。これは意味がありますか?
Dwarkesh: 意味がありますが、まだ少し混乱することがあります。例えば、類推が進化のようなものだからサンプル効率が低くていいのなら、コンテキスト学習から超サンプル効率の高いエージェントを得るなら、なぜこれらすべての強化学習環境を構築するのに苦労するのか?
ある企業の仕事はモデルにこのAPIの使い方、Slackの使い方、他のものの使い方を教えることのようです。そのような即座に学習できるエージェントが出現しているか、すでに出現しているなら、なぜこれほど重視されているのか、私は困惑しています。
Dario: 他の人の重点については語れません。私たちがどう考えているかについてだけ話せます。
目標は強化学習でモデルに可能な限りのスキルを教えることではなく、事前トレーニングでもそうしないのと同じです。事前トレーニングでは、単語が組み合わさる可能性のあるすべての方法をモデルに触れさせようとしているわけではありません。
代わりに、モデルは多くのものに対してトレーニングされ、事前トレーニングで汎化に達します。これはGPT-1からGPT-2への移行で間近で見たことです。モデルはある点に達しました。私は「ああ、そうだ、モデルに数字のリストを与えるだけ—これは家の価格、これは家の平方フィート—モデルはパターンを完成させ、線形回帰を行う」と思った瞬間がありました。
あまり良くはありませんでしたが、それは達成しましたし、以前にその正確なものを見たことはありませんでした。
だから、私たちがこれらの強化学習環境を構築している限りでは、目標は5年前や10年前の事前トレーニングが行ったことと非常に似ています。特定のドキュメントや特定のスキルをカバーしたいからではなく、汎化を得たいから、大量のデータを得ようとしているのです。
あなたが提示した枠組みは明らかに理にかなっています。私たちはAGIに向かっています。今世紀中にAGIを実現するということに誰も異論を唱えていません。重要なのは、あなたが指数曲線の終点に近づいていると言っていることです。
他の人はこれを見て、「2012年から進歩し続けていて、2035年には人間のようなエージェントを持つことになる」と言います。
明らかに、私たちはこれらのモデルで進化が行ったこと、あるいは人間が生涯で学ぶことを見ています。あなたが何を見て、それが10年後ではなく1年後だと思うのかを理解したいです。
スケーリングは口実か?
Dario: ここでは2つの主張ができます。1つはより強く、1つはより弱い。
弱い主張から始めると、2019年に初めてスケーリングを見た時、私は確信がありませんでした。50/50のことでした。私は何かを見たと思いました。私の主張は、誰が考えるよりも可能性が高いということでした。おそらく50%の確率で起こるでしょう。
あなたが言ったことについて、10年以内に私が「データセンターの天才の国」と呼ぶものに達するという点で、私は90%確信しています。世界は予測不可能なので90%を超えるのは難しいです。還元不能な不確実性が95%に達するかもしれないし、複数の企業内の混乱、台湾の侵攻、すべてのファブがミサイルで破壊されるなどに遭遇するかもしれません。
Dwarkesh: 今、呪いをかけましたね、Dario。
Dario: 事柄が10年遅れる世界の5%を構築できます。
また別の5%があり、それは私が検証可能なタスクに対して非常に自信があることです。コーディングについては、その還元不能な不確実性を除いて、1〜2年以内に目標に達すると思います。10年かかってもエンドツーエンドのコーディングができないことはあり得ません。
私の少しの根本的不確実性は、長い時間スケールでも、検証不可能なタスクについてです:火星ミッションの計画;CRISPRのような基礎科学の発見;小説を書く。
これらのタスクは検証が難しいです。そこに到達する信頼できる道があるとほぼ確信していますが、少し不確実性があるのはそこです。
10年のタイムラインでは、90%確信していますが、これは達成できる最も確実な程度です。2035年にこれが起こらないと言うのは狂気だと思います。ある理性的な世界では、これは主流外の見解と見なされるでしょう。
しかし、検証の強調は、これらのモデルが汎化していることへの信念の欠如を暗示しています。人間について考えると、検証可能な報酬が得られることと得られないことの両方が得意です。
Dario: いいえ、だから私はほぼ確信しています。検証可能なことから検証不可能なことへのかなりの汎化を見てきました。これを見てきました。
しかし、あなたがこれを強調することは、分岐するスペクトルを暗示しているようで、どの領域でより多くの進展を見るか。これは人間がより良くなる方法のようには見えません。
Dario: 私たちがそこに到達できない世界は、私たちが検証可能なことをすべて行う世界です。その多くは汎化しますが、完全にはそこに到達しません。箱の反対側を完全に埋めません。これは二元的なことではありません。
汎化が弱く、検証可能な領域しかできないとしても、そのような世界でソフトウェアエンジニアリングを自動化できるかどうかは明確ではありません。ある意味で、あなたは「ソフトウェアエンジニア」ですが、ソフトウェアエンジニアの仕事の一部には、壮大なビジョンについての長いメモを書くことが含まれています。
Dwarkesh: それがソフトウェアエンジニアの仕事の一部だとは思いません。
Dario: それは会社の仕事の一部であり、ソフトウェアエンジニアに特化したものではありません。しかし、ソフトウェアエンジニアは設計ドキュメントやその他の同様のものを含みます。モデルはすでにコメントを書くのが非常に得意です。
繰り返しますが、私がここで提示している主張は、私が信じているよりもはるかに弱く、2つのことを区別するためのものです。ソフトウェアエンジニアリングについては、ほぼ到達しています。
Dwarkesh: どの基準で?AIが書いたコードの行数という基準があります。
ソフトウェアエンジニアリングの歴史における他の生産性向上を考えると、コンパイラがすべてのソフトウェア行を書きました。書かれた行数と生産性向上の大きさには違いがあります。「ほぼ到達した」とはどういう意味ですか?
Dario: 生産性向上の大きさであり、AIが書いた行数だけではありません。
Dwarkesh: 実際にはあなたに同意します。
Dario: コードとソフトウェアエンジニアリングについて一連の予測をしました。人々はそれらを繰り返し誤解していると思います。このスペクトルをリストさせてください。
約8、9ヶ月前、AIモデルは3〜6ヶ月以内にコード行の90%を書くと私は言いました。これは起こりました。少なくともいくつかの場所で。Anthropic内部で起こり、私たちのモデルを使用する多くの下流の人々のところで起こっています。
しかし、これは実際には非常に弱い基準です。人々は私が90%のソフトウェアエンジニアが不要になると言ったと思いました。これらのことはかけ離れています。
スペクトルは:モデルがコードの90%を書く、モデルがコードの100%を書く。これは生産性に大きな違いがあります。
エンドツーエンドのソフトウェアエンジニアリングタスクの90%—コンパイル、クラスターと環境の設定、機能のテスト、メモの作成など—がモデルによって行われる。
今日のソフトウェアエンジニアリングタスクの100%がモデルによって行われる。これが起こっても、ソフトウェアエンジニアが失業するわけではありません。彼らは新しいより高度なことをすることができ、管理することができます。
そしてスペクトルのさらに先に、ソフトウェアエンジニアへの需要が90%減少します。これは起こると思いますが、これはスペクトルです。
私は「技術の青春期」でこれについて書きました。農業がこのスペクトルを経験したことを使って。
Dwarkesh: 実際には完全にあなたに同意します。これらは互いに非常に異なるベンチマークですが、超高速でそれらを通過しています。
あなたのビジョンの一部は、90から100への移行が非常に速く起こり、巨大な生産性向上をもたらすということです。しかし、私が気づいているのは、グリーンフィールドプロジェクトでも、人々がClaude Codeや他のものから始めて、多くのプロジェクトを立ち上げたと報告していても...私たちは外の世界でソフトウェアの復興を見ているのでしょうか?そうでなければ存在しなかったすべての新機能?少なくとも今のところ、私たちは見ていないようです。
だからこれは本当に疑問に思わせます。Claude Codeに介入する必要が全くないとしても、世界は複雑です。仕事は複雑です。自己完結型システムでループを閉じることは、単にソフトウェアを書くことだけであれ、他のものであれ、そこからどの程度の広範な利益を得られるでしょうか?
これは「天才の国」の推定を希薄化させるかもしれません。
Dario: 同時にあなたに同意しますが、これらのことがすぐに起こらない理由でもあり、同時に、効果は非常に速いと思います。
この2つの極端な可能性があります。1つはAIが進歩しない。遅い。経済に永遠に拡散する。
経済拡散はこれらのバズワードの1つになり、AIの進歩がない、あるいはAIの進歩が重要ではない理由になっています。
もう一つの軸は、再帰的自己改善を得て、全体が。単に曲線に指数線を引くことができるのか?
再帰を得た後の数ナノ秒以内に、太陽の周りにダイソン球を持つでしょう。私はここで完全にこの観点を皮肉っていますが、この2つの極端があります。
しかし、私たちが最初から見ているのは、少なくともAnthropic内部を見ると、この奇妙な年間10倍の収入成長があります。
だから2023年には、ゼロから1億ドルでした。2024年には、1億ドルから10億ドルでした。2025年には、10億ドルから90〜100億ドルです。
Dwarkesh: あなたたちは10億ドルの自分の製品を買って、そうすれば...
Dario: 今年の最初の月、その指数曲線は...鈍化すると思うでしょうが、1月にまた数十億ドルの収入を追加しました。
明らかにその曲線は永遠に続かない。GDPはそれほど大きいだけだから。今年は少し曲がると思いますが、それは速い曲線です。非常に速い曲線です。経済全体に拡大しても、かなり速いままだろうと賭けています。
だから、物事は非常に速いが、瞬間ではないこの中間の世界を考えるべきだと思います。経済拡散のために、ループを閉じる必要があるために、時間がかかります。
面倒だから:「企業内で変更管理を行わなければならない...これを設定したが、本当に動作させるにはこのセキュリティ権限を変更しなければならない...モデルをチェックしてからコンパイルしてリリースする古いソフトウェアがあり、それを書き直さなければならない。はい、モデルはそれができるが、モデルにそれをするように言わなければならない。それをするのに時間がかかる。」
だから、これまでに見たすべては、モデルの能力という速い指数曲線があるという考えと互換性があると思います。そして、もう一つの速い指数曲線があり、それは下流で、モデルが経済に拡散するものです。
瞬間ではなく、遅くなく、以前のどの技術よりもはるかに速いが、限界があります。
Anthropic内部を見ると、私たちの顧客を見ると:迅速な採用ですが、無限に速くはありません。
Dwarkesh: 大胆な観点を試してみてもいいですか?
Dario: いいですよ。
Dwarkesh: 拡散は人々が使う口実だと思います。モデルが何かできない時、彼らは「ああ、でもこれは拡散問題だ」と言います。
しかし、人間と比較すべきです。AI固有の利点は、新しいAIのオンボーディング拡散が新しい人間のオンボーディングよりもはるかに簡単な問題になると考えるでしょう。
AIは数分であなたのSlackとドライブ全体を読むことができます。彼らは同じインスタンスの他のコピーが持つすべての知識を共有できます。
AIを雇う時、この逆選択問題がないので、審査されたAIモデルのコピーを雇うことができます。
人間を雇うのははるかに面倒です。人々はずっと人間を雇い続けています。私たちは人間に500億ドル以上の給与を支払っています。彼らが有用だからですが、原則としてAIを経済に統合することは人間を雇うよりもはるかに簡単であるべきです。
スケーリングは本当に説明できません。
Dario: 拡散は非常に現実的であり、AIモデルの限限とは完全には関係ないと思います。
繰り返しますが、一部の人々は拡散をバズワードとして使って、これは大したことではないと言っています。私はそのことについて話しているのではありません。AIが以前の技術の速度で拡散すると言っているのではありません。
AIは以前の技術よりもはるかに速く拡散すると思いますが、無限に速くはないと思います。
一つだけ例を挙げます。Claude Codeがあります。Claude Codeは設定が非常に簡単です。開発者であれば、直接Claude Codeを使い始めることができます。
大企業の開発者が、個人の開発者やスタートアップの開発者ほど速くClaude Codeを採用しない理由はありません。
私たちはそれを推進するためにあらゆることをしています。企業にClaude Codeを販売しています。
大企業、大金融会社、大手製薬会社、これらはすべてClaude Codeを採用しています。企業が通常新しい技術を採用するよりもはるかに速く。
しかし、やはり時間がかかります。特定の機能や特定の製品、Claude CodeやCoworkerのようなものは、Twitterにいる個人の開発者、シリーズAのスタートアップに、食品販売をしている大企業よりも数ヶ月早く採用されます。
多くの要因があります。法務審査を通さなければならないし、全員に設定しなければならない。セキュリティとコンプライアンスを通さなければならない。
企業のリーダーはAI革命からより遠くにいて、彼らはビジョンを持っているが、「5000万ドルを費やすのは意味がある。これがClaude Codeだ。これが会社にどのように役立つか。これがより生産的にする理由だ」と言わなければならない。
そして、2段階下の人に説明しなければならない。「いいよ、3000人の開発者がいる。どうやって開発者に展開するのか」と言わなければならない。
私たちは毎日このような会話をしています。Anthropicの収入成長を年間20〜30倍にするためにあらゆることをしています。10倍ではなく。
繰り返しますが、多くの企業は単に「これは非常に生産的だ。通常の調達プロセスでショートカットする」と言っています。
彼らは通常のAPIを販売しようとするよりもはるかに速く動いており、多くの企業が使用しています。Claude Codeはより説得力のある製品ですが、無限に説得力のある製品ではありません。
AGIや強力なAIや「データセンターの天才の国」でさえ、無限に説得力のある製品ではないと思います。十分に説得力のある製品であり、おそらく年間3〜5倍または10倍の成長を得ることができますが、数千億ドル規模でも、これは歴史的に非常に難しく、達成されたことはありませんが、無限に速くはありません。
Dwarkesh: 軽い鈍化があると思います。これがあなたの主張ではないかもしれませんが、時々人々はこれについて「ああ、能力はあるが、拡散のために...」と話します。「さもなければ基本的にAGIにいる」。
Dario: 私たちは基本的にAGIにいるとは信じていません。「データセンターの天才の国」があれば...
「データセンターの天才の国」があれば、私たちは知っているでしょう。「データセンターの天才の国」があれば、私たちは知っているでしょう。この部屋の全員が知っているでしょう。ワシントンの全員が知っているでしょう。地方の人は知らないかもしれませんが、私たちは知っているでしょう。
今はそれを持っていない。これは非常に明確です。
継続学習は必要か?
Dwarkesh: 具体的な予測に戻りましょう...曖昧さを解消する必要があるものが多すぎるので、能力について話す時、お互いに誤解しやすいです。
例えば、3年前にあなたにインタビューした時、3年後に何を期待すべきかについての予測を聞きました。あなたは正しかった。「1時間話せば、教育を受けた人間と区別するのが難しいシステムを期待すべきだ」と言いました。あなたは正しかったと思います。
私は精神的に満足していませんでした。なぜなら、私の内部の期待は、そのようなシステムがホワイトカラー仕事の大部分を自動化できるというものだったからです。だから、そのようなシステムから得たい実際の最終能力について話す方がより生産的かもしれません。
基本的に、私たちがどこにいるかを話します。
非常に具体的な質問をさせてください。そうすれば、どのような能力をすぐに考慮すべきかを正確に理解できます。おそらく、私がよく知っている仕事の文脈で聞きます。それが最も関連性のある仕事だからではなく、単にそれについての主張を評価できるからです。
ビデオ編集を例にします。私はビデオ編集者がいます。彼らの仕事の一部には、視聴者の嗜好を理解すること、私の嗜好と味、そして持っている異なるトレードオフを理解することが含まれます。彼らは多くの月をかけてコンテキストへの理解を築きます。
6ヶ月働いた後に持っているスキルと能力を、即座にそのスキルを習得できるモデルは、いつそのようなAIシステムを期待できるでしょうか?
Dario: あなたが言っているのは、私たちがこの3時間のインタビューをしているということだと思います。誰かが入ってきて、誰かが編集するでしょう。彼らは「ああ、わからない、Darioが頭をかいた、それはカットできる」と言うでしょう。
「それをズームして。」「この長い議論がある、人々にはあまり面白くない。もう一つの人々にもっと面白いものがあるから、この編集をしよう。」
「データセンターの天才の国」はこれができると思います。コンピュータ画面を一般的に制御できる方法でできるでしょう。これを入力できるようになるでしょう。
また、コンピュータ画面を使用してインターネットにアクセスし、以前のすべてのインタビューを見たり、Twitterでインタビューについての人々のコメントを見たり、あなたと話したり、質問したり、スタッフと話したり、行った編集履歴を見たり、そこから仕事を完了したりすることもできるでしょう。
これはいくつかのことに依存しています。これが実際にデプロイを妨げているものの一つだと思います:モデルがコンピュータを使用することに本当に熟練するレベルに達すること。
このベンチマークでの上昇を見てきました。ベンチマークは常に不完全な尺度です。しかし、1年と3ヶ月前にコンピュータ使用を初めてリリースした時、OSWorldは約15%だったと思います。
正確な数字は覚えていませんが、そこから65〜70%に上昇しました。おそらくより難しい基準があるでしょうが、コンピュータ使用は信頼性のポイントを通過する必要があると思います。
Dwarkesh: 次の点に進む前に、フォローアップできますか?何年もの間、私は自分用の異なる内部LLMツールを構築しようとしてきました。
通常、私はこれらのテキスト入力、テキスト出力タスクを持っていて、これらのモデルの核心的能力であるべきです。しかし、私はまだそれらを行うために人間を雇っています。
「このテキストで最も良い断片は何か」のようなことなら、おそらく大規模言語モデルはその10分の7の仕事をしているかもしれません。しかし、私が人間のスタッフとできるように、彼らと相互作用し、仕事をより良くするのを助けるこのような一貫した方法がありません。
その欠けている能力は、コンピュータ使用を解決したとしても、実際の仕事を彼らに外注する能力を妨げるでしょう。
Dario: これは以前に話した仕事での学習に戻ります。これは非常に興味深いです。コーディングエージェントについては、人々は仕事での学習がコーディングエージェントがエンドツーエンドですべてを行うのを止めていると言うとは思わないと言います。
彼らは常に良くなっています。Anthropicではコードを書かないエンジニアがいます。生産性を見ると、以前の質問に戻ると、「このGPUカーネル、このチップ、私は以前自分で書いていた。Claudeにやらせるだけだ」と言う人がいます。生産性は巨大に向上しています。
Claude Codeを見ると、コードベースへの慣れやモデルが会社で1年働いた感じがすることは、私が見る苦情のリストの上位にはありません。
私が言っているのは、私たちは異なる道を歩んでいるということだと思います。
Dwarkesh: コーディングがそうであるのは、外部のメモリスキャフォールドがコードベースにインスタンス化されているからだと思いますか?他の仕事がそれを持っているかどうかわかりません。
コーディングが急速な進展を遂げているのは、他の経済活動にはないこのユニークな利点があるからです。
Dario: しかし、そう言う時、コードベースをコンテキストに読み込むことで、私は人間が仕事で学ぶ必要があるすべてを持っていることを暗示しています。
だから、それは例になるでしょう—書かれているかどうかにかかわらず、利用可能かどうかにかかわらず—知る必要があるすべてがコンテキストウィンドウから得られるケースです。
私たちが考える学習—「この仕事を始めた、コードベースを理解するのに6ヶ月かかる」—モデルはコンテキストでそれをやります。
私は本当にこれをどう考えるかわかりません。なぜなら、誰かがあなたが言ったことを定性的に報告するからです。去年見たと信じていますが、経験豊富な開発者が慣れ親しんだリポジトリでプルリクエストを閉じようとする大きな研究がありました。それらの開発者は向上を報告しました。これらのモデルを使うともっと生産的だと感じると報告しました。
しかし実際には、彼らの出力と実際にマージバックされたものを見ると、20%の減少があります。彼らがこれらのモデルを使用した結果は生産性が低下しました。
だから、人々のこれらのモデルについての定性的感覚と以下の点を調和させようとしています:1)マクロレベルで、このソフトウェアの復興はどこにあるのか?2)人々がこれらの独立した評価を行う時、なぜ期待する生産性の利益を見ていないのか?
Dario: Anthropic内部では、これは本当に明確です。私たちは信じられないほどの商業的プレッシャーを受けており、私たちが行うすべての安全な仕事のために自分をより困難にしていますが、他の会社より多くやっていると思います。
価値観を維持しながら経済的に存続する圧力は信じられないほどです。私たちはこの10倍収入曲線の成長を維持しようとしています。
でたらめを言う時間はありません。生産的だと感じるが実際にはそうではない時間はありません。
これらのツールは私たちをより生産的にします。なぜ競合他社がこれらのツールを使用することを心配すると思いますか?競合他社より先にいると思うからです。
もしこれが密かに生産性を低下させていたら、私たちはこれらすべてのトラブルを経験しないでしょう。私たちは数ヶ月ごとにモデルリリースの形で最終的な生産性を見ています。
これについて自欺の余地はありません。これらのモデルはあなたをより生産的にします。
1)人々が生産的だと感じることは、このような研究によって定性的に予測されます。しかし2)最終出力を見ると、明らかに急速な進展を遂げています。
しかし、このアイデアは、再帰的自己改善によって、より良いAIを作り、AIがより良い次のAIを構築するのを助け、等等と続くべきだということです。
逆に、私が見ているのは—あなた、OpenAI、DeepMindを見ると—人々は数ヶ月ごとに表彰台で場所を変えているだけです。おそらくあなたが勝つから止まると思うかもしれません。
しかし実際に、前のコーディングモデルがこれらの巨大な生産性の利益を持っていたなら、なぜ最高のコーディングモデルを持っている人がこの持続的な利点を見ていないのか。
Dario: 状況のモデルは、徐々に増加する利点があるということだと思います。今、コーディングモデルが与える全要素加速は、わからない、15〜20%だと思います。それが私の見解です。6ヶ月前は、おそらく5%でした。
だから大したことない。5%は数に入らない。今、1つの要因になり始め、少し重要です。それは加速し続けるでしょう。
6ヶ月前は、数社がほぼ同じ点にいたと言えます。これは顕著な要因ではなかったからですが、ますます加速し始めていると思います。
また、複数の会社がコード用のモデルを書いており、私たちは他の会社のいくつかが内部的に私たちのモデルを使用することを完全に止めることができません。
だから、私たちが見ているすべては、この雪だるまモデルと整合していると思います。繰り返しますが、私のすべてのテーマは、これがすべてソフトな離陸であり、指数曲線が比較的急勾配であるにもかかわらず、ソフトで滑らかな指数曲線であるということです。
だから、この雪だるまが勢いを集めるのを見て、それは10%、20%、25%、40%です。進むにつれて、アムダールの法則、ループを閉じるのを妨げるすべてをクリアしなければならない。
しかし、これはAnthropic内部の最大の優先事項の一つです。
一歩下がって、この仕事での学習をいつ得るかについて話す前に?
コーディングについて提起した点は、実際には仕事での学習を必要としないということのようです。
巨大な生産性向上を持つことができ、AI会社に潜在的に数兆ドルの収入をもたらすことができるが、この基本的な人間の即時学習能力なしで。
おそらくそれはあなたの主張ではなく、明確にすべきです。しかし、ほとんどの経済活動分野では、人々は「誰かを雇った、最初の数ヶ月はそれほど役に立たない、その後時間とともに、彼らは背景、理解を築いた」と言います。
実際、私たちがここで何について話しているかを定義するのは難しいです。しかし、彼らは何かを得て、今は強力な力になり、私たちにとって非常に価値がある。
AIがこの即時学習の能力を発展させないなら、私はその能力なしで世界の大きな変化を見るかどうか少し疑っています。
Dario: ここに2つのことがあると思います。今、技術の状態があります。
繰り返しますが、私たちはこの2つの段階を持っています。事前トレーニングと強化学習の段階があり、モデルにデータとタスクの束を投げ、彼らは汎化します。
だから、これは学習のようなものですが、1人の人間や1つのモデルの生涯で学習するというより、より多くのデータから学習するようなものです。
だから繰り返しますが、これは進化と人間の学習の間に位置しています。しかし、これらすべてのスキルを学習したら、それらを持っています。
事前トレーニングのように、モデルがより多くを知っているように、事前トレーニングモデルを見ると、日本の武士の歴史について私より多くを知っています。野球について私より多くを知っています。ローパスフィルタとエレクトロニクスについてより多くを知っています。これらすべてのものです。
その知識は私のよりはるかに広範です。だから、それだけでモデルがすべてにおいてより良くなる点に到達できると思います。
また、繰り返しますが、既存の設定のタイプを拡張するだけで、コンテキスト学習があります。私はそれを人間の仕事での学習に少し似ているが、少し弱く、少し短期的だと説明します。
コンテキスト学習を見ると、モデルに例の束を与えると、それは本当に理解します。コンテキストで本当に学習が起こっています。
100万トークンは多いです。それは数日の人間の学習になり得ます。モデルが100万語を読むことを考えれば、100万語を読むのにどれくらいかかるか?少なくとも数日か数週間。
だから、この2つのものを持っています。私は、これら2つのものが現存するパラダイムで「データセンターの天才の国」を得るのに十分かもしれないと思います。
確信はありませんが、それらがその大部分を得られると思います。ギャップがあるかもしれませんが、現状として、これは数兆ドルの収入を生み出すのに十分だと確かに思います。それが第一点です。
第二点は、この継続学習のアイデア、単一のモデルが仕事で学習するアイデアです。私たちもこれに取り組んでいると思います。
次の1、2年以内にこれも解決する可能性が高いです。繰り返しますが、それなしで大部分を進めると思います。
年間数兆ドルの市場、おそらく私が「技術の青春期」で書いたすべての国際安全保障への影響と安全への影響は、それなしで起こり得ます。
しかし、私たちも、おそらく他の人たちも、それに取り組んでいます。次の1、2年以内にそこに到達する可能性が高いです。
多くのアイデアがあります。すべてを詳しくは話しませんが、一つはコンテキストを長くすることです。より長いコンテキストが動作することを止めるものは何もありません。
より長いコンテキストでトレーニングし、推論時にそれらを提供することを学ぶだけです。これらは両方とも私たちが取り組んでいるエンジニアリング問題であり、他の人たちも取り組んでいると想定しています。
Dwarkesh: このコンテキスト長の増加について、2020年から2023年にかけてGPT-3からGPT-4 Turboまで、2000コンテキスト長から128Kに増加した時期があったようです。
それから約2年間、同じ範囲に留まっているように感じます。コンテキスト長がそれよりはるかに長くなると、モデルが完全なコンテキストを考慮する能力に質的な低下があると人々が報告しています。
だから、内部で何を見て、「1000万コンテキスト、1億コンテキスト、6ヶ月の人間の学習とコンテキストの構築を得る」と思うのか興味があります。
Dario: これは研究問題ではありません。これはエンジニアリングと推論の問題です。長いコンテキストを提供したい場合、KVキャッシュ全体を保存しなければなりません。
GPUですべてのメモリを保存し、メモリを処理することは困難です。詳細さえわかりません。この時点で、これは私がもう追いつけない詳細レベルですが、GPT-3時代には知っていました。「これらは重み、これらは保存しなければならない活性化...」
しかし今は全体がひっくり返りました。MoEモデルとこれらすべてがあるからです。
話しているこの退化について、2つのことがあり、あまり具体的にならないで。トレーニングしたコンテキスト長と提供するコンテキスト長があります。
小さなコンテキスト長でトレーニングして、長いコンテキスト長で提供しようとすると、おそらくこれらの退化が得られます。何もないよりはいいかもしれませんが、それでも提供するかもしれませんが、これらの退化が得られます。
おそらく長いコンテキスト長でトレーニングするのはより難しいです。同時に、可能なウサギの穴を聞いてみましょう。
より長いコンテキスト長でトレーニングしなければならない場合、それは同じ量の計算で、得られるサンプルが少なくなることを意味しませんか?
おそらく深く掘り下げる価値はありません。より大きな絵の質問の答えを得たいです。
6ヶ月働いた人間の編集者と6ヶ月一緒に働いたAIに対する好みを感じない、それは何年になると予測しますか?
Dario: 私の推測は多くの問題があり、基本的に「データセンターの天才の国」を持つ時、これができるということです。
これについての私の見解は、推測させていただければ、1〜2年、おそらく1〜3年です。本当に言いにくいです。強い意見を持っています—99%、95%—これらすべてが10年以内に起こるということです。それは単に超安全な賭けだと思います。
予感を持っています—これはもっと50/50のことですが—それは1〜2年にもっと似ており、おそらく1〜3年にもっと似ています。
だから1〜3年。天才の国、そして少し経済的価値が低いビデオ編集タスク。
Dwarkesh: 経済的価値があるように聞こえます、教えてあげます。
Dario: そのようなユースケースがたくさんあるだけです。似たようなものがたくさんあります。だから1〜3年以内に予測する。
AGIが来るなら、なぜもっと計算を買わないのか?
Dwarkesh: そして、一般的に、Anthropicは2026年末または2027年初頭までに、「今日の人間がデジタル作業を行うためのインターフェースを閲覧する能力、ノーベル賞受賞者に匹敵または超える知的能力、および物理世界と相互作用する能力」を持つAIシステムを持つと予測しています。
あなたは2ヶ月前にDealBookのインタビューで、競合他社に比べてより責任ある計算拡張を強調しました。私はこれら2つの見解を調和させようとしています。
もし本当に天才の国を持つと信じているなら、できるだけ大きなデータセンターが欲しいはずです。スピードを落とす理由はありません。
ノーベル賞受賞者一人のTAMは、実際にはノーベル賞受賞者ができるすべてのことができ、数兆ドルです。
だから、より穏やかなタイムラインを持っているなら合理的に思えるこの保守主義と、進歩についてのあなたの記述された見解を調和させようとしています。
Dario: 実際にはすべてつながっています。この速いが無限に速くない拡散に戻ります。
この速度で進歩していると仮定しましょう。技術はこれほど速い速度で進歩しています。私は数年以内にそこに到達することを非常に確信しています。
予感を持っていますが、1、2年以内に到達すると思います。だから技術面では少し不確実性がありますが、それが大きくずれないという非常に高い確信があります。
あまり確信していないのは、繰り返しになりますが、経済拡散の側面です。私は本当に1、2年以内にデータセンターの天才の国のモデルを持つことができると信じています。
1つの質問は:その後何年で、数兆の収入が転がり込み始めるか?それが即座である保証はないと思います。
1年かもしれないし、2年かもしれないし、私は5年まで伸びることさえできますが、私はそれに懐疑的です。
だからこの不確実性があります。技術が私が疑うほど速く進歩しても、それが収入をどれだけ速く押し上げるか正確にはわかりません。
それが来ることはわかっていますが、これらのデータセンターを購入する方法によっては、数年違えば、それは壊滅的かもしれません。
これは「慈愛の機械」で書いたことと同じです。私はこの強力なAI、この「データセンターの天才の国」を得るかもしれないと言いました。あなたが与えたその説明は「慈愛の機械」から来ています。
私は2026年にそれを得る、おそらく2027年だと言いました。繰り返しになりますが、それは私の予感です。1、2年違っても驚きませんが、それは私の予感です。
それが起こると仮定しましょう。それはスターティングガンです。すべての病気を治すのにどれくらいかかりますか?それは大量の経済的価値を推進する方法の1つです。
すべての病気を治します。製薬会社やAI会社にどれだけ帰属するかという問題はありますが、巨大な消費者余剰があります。なぜなら—誰もがアクセスを提供できれば、私はこれを非常に気にしています—これらすべての病気を治します。
どれくらいかかりますか?生物学発見を行わなければならず、新しい薬を作らなければならず、規制プロセスを経なければなりません。ワクチンとCOVIDでこれを見ました。
ワクチンを全員に展開しましたが、1年半かかりました。
私の質問は:AIが初めて研究所に存在してから、すべての人のためにすべてを治す方法が実際に治るまで、どれくらいかかるか—AIは理論的に発明できる天才ですか?
ポリオワクチンを持って50年になります。まだアフリカの最も遠い隅々でそれを根絶しようとしています。ゲート財団ができる限りのことをしています。他の人たちもできる限りのことをしています。しかし、それは困難です。
繰り返しになりますが、経済拡散の大部分がそれほど困難になることを期待していません。それは最も困難なケースです。しかし、ここには本当のジレンマがあります。
これについての私の見解は、世界で見たどのものより速いですが、それでも限界があるということです。
だからデータセンターを購入しに行く時、繰り返しになりますが、私が見る曲線は:毎年10倍の成長があるということです。
今年の初めに、100億ドルの年間収入を見ています。どれだけの計算を購入するかを決めなければなりません。
実際にデータセンターを構築し、データセンターを予約するには1、2年かかります。
基本的に私は「2027年に、私はどれだけの計算を得るか?」と言っています。
収入が毎年10倍で成長し続けると仮定できるので、2026年末までに1000億ドルになり、2027年末までに1兆ドルになるでしょう。
実際には5兆ドルの計算になります。なぜなら1兆ドルが5年間続くからです。2027年末から始まる1兆ドルの計算を購入できます。
もし私の収入が1兆ドルでなくても、8000億ドルであっても、それだけの計算を購入すれば、破産を防ぐ世界の力も、ヘッジもありません。
脳の一部はそれが10倍で成長し続けるかどうか気にしますが、2027年に年間1兆ドルの計算を購入できません。
その成長率で1年違うだけでも、または成長率が10倍ではなく年間5倍であれば、破産します。
だから、最終的には、数兆ではなく、数千億をサポートする世界になります。需要が多すぎて収入をサポートできないリスクを受け入れ、間違えていてまだ遅いリスクを受け入れます。
私が責任ある行動について話す時、私が意味するのは実際には絶対量ではありません。実際、私たちの支出は他のいくつかのプレーヤーより少し少ないと思います。
実際には他のことで、私たちが思慮深いか、それともYOLOして「ここで1000億ドル、あそこで1000億ドルしようか」と言っているかです。
私の印象は、他のいくつかの会社はスプレッドシートを書いておらず、彼らが負っているリスクを本当に理解していないということです。彼らはクールに聞こえるから何かをしているだけです。
私たちは慎重に考えました。私たちは企業ビジネスです。したがって、収入にもっと頼ることができます。それは消費者ほど気まぐれではありません。より良い利益率を持っており、これが多すぎる購入と少なすぎる購入の間のバッファーです。
私たちはかなり強い上昇の世界を捉える量を購入したと思います。完全な年間10倍は捉えません。
私たちが財政的困難に陥るには、事態がかなり悪くなる必要があります。だから私たちは慎重に考え、そのバランスを取りました。これが私が責任あると言うことです。
Dwarkesh: だから、私たちは実際には「データセンターの天才の国」について異なる定義を持っているだけかもしれません。なぜなら、実際の人間の天才、データセンターの実際の人間の天才について考える時、私はデータセンターの実際の人間の天才の国を実行するために5兆ドル相当の計算を喜んで購入します。
JPMorganやModernaやその他がそれらを使いたくないと仮定しましょう。私は天才の国を持っています。彼らは自分の会社を創設するでしょう。
彼らが自分の会社を創設できないなら、彼らは臨床試験のボトルネックに直面しています...臨床試験については、ほとんどの臨床試験は薬が機能しないために失敗することを言及する価値があります。効果がありません。
Dario: 私は「慈愛の機械」でまさにこの点を提起し、臨床試験は私たちが慣れ親しんだものよりはるかに速いが、無限に速くはないと言いました。
Dwarkesh: わかりました、それでは、臨床試験が成功するのに1年かかると仮定し、そこから収入を得てより多くの薬を作ることができます。
さて、あなたは天才の国を持っていて、AI研究所です。より多くのAI研究者を使用できます。
あなたは賢い人々がAI技術の仕事に従事することにこれらの自己強化的な利益があるとも考えています。データセンターをAIの進歩に従事させることができます。
年間1兆ドルの計算を購入することと年間3000億ドルの計算を購入することから得られる利益は実質的にもっとありますか?
Dario: あなたの競合が1兆を購入すれば、はい、あります。
まあ、いいえ、いくつかの利益がありますが、同様に、彼らが以前に破産するという機会があります。繰り返しになりますが、1年違うだけで、自分を壊します。それがバランスです。
私たちはたくさん買っています。かなりたくさん買っています。ゲームの最大のプレーヤーが購入する量と同等の量を購入しています。
しかし、「なぜ私たちが2027年中期から始まる10兆ドルの計算に署名しなかったのか」と私に聞くなら...まず、それは生産できません。世界にそれほどありません。
しかし第二に、天才の国が来るが、2027年中期ではなく2028年中期に来るなら?あなたは破産します。
Dwarkesh: だから、もし予測が1〜3年なら、2029年までに最遅で10兆ドルの計算能力を持っていたいはずですよね?述べたタイムラインの最も長いバージョンでも、拡大建設している計算は一致しないように思えます。
Dario: なぜそう思いますか?
人間の給与は、例えば、年間約50兆ドルです—
Dwarkesh: だから、私は特にAnthropicについて話しませんが、この業界について話すと、今年この業界が建設している計算量は、おそらく、10〜15ギガワットと呼びましょう。
それは年間約3倍で成長しています。だから来年は30〜40ギガワットです。2028年はおそらく100ギガワットです。2029年は300ギガワットのようなものです。
頭の中で計算していますが、ギガワットあたりのコストはおそらく100億ドルで、年間約10〜15億ドルです。
これらすべてを合計すると、記述したものが得られます。2028年または2029年までに、年間数兆を得ます。
Dwarkesh: それは業界についてです。
Dario: 業界についてです、その通りです。
Dwarkesh: Anthropicの計算が年間3倍で成長し続けると仮定し、2027〜28年までに10ギガワットを持つとします。あなたが言うように、100億ドルを掛けます。だから年間1000億ドルのようなものです。
しかし、それは2028年までにTAMは2000億ドルだと言っています。
Dario: 繰り返しになりますが、Anthropicの正確な数字を与えたくありませんが、これらの数字は小さすぎます。
Dwarkesh: おもしろい。
AI研究所は本当に利益を上げるのか?
Dwarkesh: あなたは投資家に2028年から利益を上げる計画だと話しました。この年、私たちはデータセンターとして天才の国を得るかもしれません。これは医学、健康、新技術のすべての進歩を解放するでしょう。これはまさにビジネスに再投資し、より多くの発見ができるようにより大きな「国」を構築したい時ではありませんか?
Dario: この分野では、利益率は少し奇妙なものです。この分野では、利益率が実際に消費とビジネスへの投資の指標だとは思いません。例を挙げましょう。実際、需要量を過小評価した時に利益が発生し、需要量を過大評価した時に損失が発生すると思います。なぜなら、データセンターを前もって購入するからです。
こう考えてみましょう。繰り返し強調しますが、これらは様式化された事実です。これらの数字は正確ではありません。私はここで玩具モデルを構築しようとしています。計算力の半分をトレーニングに使い、半分を推論に使うと仮定しましょう。推論には50%を超える利益率があります。だから、定常状態にあれば、データセンターを構築し、得られる需要を正確に知っていれば、一定の収入が得られます。
年間1000億ドルを計算力に支払うと仮定しましょう。年間500億ドルで、1500億ドルの収入をサポートします。別の500億ドルはトレーニングに使われます。基本的には利益があり、500億ドルの利益を稼ぎます。それが今日この業界の経済学です。あるいは今日ではなく、1、2年後に予測するものです。
これが成立しない唯一のケースは、500億ドル未満の需要しか得られない場合です。そうすれば、データセンターの50%以上を研究に使い、利益は出ません。だから、より強いモデルをトレーニングしますが、利益は出ません。想像以上の需要が得られれば、研究は絞られますが、より多くの推論をサポートでき、より利益が出ます。おそらく私はうまく説明していませんが、言おうとしているのは、まず計算力の量を決めるということです。そして、推論とトレーニングの目標希望がありますが、それは需要によって決まります。あなたが決めることではありません。
Dwarkesh: 聞こえるのは、利益を上げると予測する理由は、計算力に組織的に投資不足しているからですか?
Dario: いいえ、いいえ、いいえ。予測するのが難しいと言っています。2028年と何が起こるかについて、投資家に最善を尽くそうとしています。これらすべては不確実性コーンのために非常に不確実です。収入が十分速く成長すれば、2026年に利益が出る可能性があります。翌年を過大評価または過小評価すれば、それは劇的に変動する可能性があります。
Dwarkesh: 私が理解しようとしているのは、ビジネスモデルを持っていて、投資、投資、投資し、規模を得て、利益を出す。事態が好転する単一の時点があります。
Dario: この業界の経済学がそのように機能するとは思いません。
Dwarkesh: わかりました。だから、正しく理解できれば、得るべき計算力の量と実際に得る計算力の量の違いのために、ある程度利益を上げることを余儀なくされていると言っています。しかし、それは利益を出し続けることを意味しません。お金を再投資します。なぜなら、今やAIはこれほど進歩しているので、より大きな天才の国が欲しいからです。だから収入は高いが、損失も高いに戻ります。
Dario: 毎年需要がどれくらいかを正確に予測すれば、毎年利益が出ます。計算力の50%を研究に使い、大まかに言えば、50%を超える利益率と正しい需要予測を加えれば利益が出るからです。それが少し存在するが、これらの前もっての建設と予測ミスに隠されている利益のあるビジネスモデルだと思います。
Dwarkesh: あなたは50%を既定の定数のように扱っていると思いますが、実際には、AIが速く進歩すれば、規模を拡大して進歩を増やすことができれば、50%を超えるべきで、利益を出さないべきだと思います。
Dario: しかし、私はこう言っています。もっと拡大したいかもしれません。対数スケールの利益を思い出してください。70%が1.4倍の係数で少し小さいモデルを得るだけなら...その余分な200億ドルは、そこでの1ドルごとにあなたにとって価値がはるかに小さいです。対数線形の設定だからです。だから、その200億ドルを推論を提供したり、彼らのすることが得意なエンジニアを雇ったりするのに投資する方が良いとわかるかもしれません。
だから50%と言った理由...それは完全に私たちの目標ではありません。完全に50%になるわけではありません。時間とともに変化するかもしれません。私は対数線形の利益について言っています。それはビジネスの一部を費やすことになります。例えば5%ではなく、95%ではありません。そして、減少する利益が得られます。
Dwarkesh: 私はAIの進歩をDarioに納得させようとしているような奇妙な感じがします。わかりました、研究に投資しないのは、利益が減少するからですが、言及した他のことに投資します。
Dario: マクロレベルの利益について—繰り返し強調しますが、私は減少する利益について話していますが、年間500億ドルを費やした後です。これについては、あなたが提起すると思いますが、天才における減少利益はかなり高いかもしれません。
より一般的には、市場経済における利益とは何ですか?利益は基本的に、市場の他の会社がこのお金を使って私よりも多くのことができると言っています。Anthropicを脇に置きましょう。Anthropicについての情報を提供したくありません。だから、これらの様式化された数字を出しています。しかし、業界の均衡を導き出しましょう。なぜ誰もが計算力の100%をトレーニングに使って、顧客に何も提供しないのか?それは収入がなければ、資金を調達できず、計算力を取引できず、翌年により多くの計算力を購入できないからです。
だから、各会社がトレーニングに100%未満を費やし、もちろん推論にも100%未満を費やす均衡が存在するでしょう。現在のモデルだけを提供して別のモデルをトレーニングしないのは、需要がなくなるからです。遅れるからです。だから、ある均衡があります。10%ではなく、90%ではありません。様式化された事実として、50%と言いましょう。それが私が表現したいことです。私たちは、トレーニングに費やす均衡が、計算力で得られる利益率未満であるような位置にいると思います。
だから、基盤となる経済学は利益を生む。問題は、翌年の計算力を購入する時、この地獄のような需要予測問題があり、低く予測して非常に利益が出るが研究に計算力がないか、高く予測して利益が出ず、世界中の計算力を研究に持つかです。これは意味がありますか?単に業界の動的モデルとして?
Dwarkesh: おそらく一歩下がって、私は「天才の国」が2年以内に来るとは思っていないので、これらの計算力を購入すべきだと言っているわけではありません。私にとって、あなたが導き出した最終的な結論は非常に合理的です。しかし、それは「天才の国」が難しく、まだ道が長いからのように思えます。だから一歩下がって、あなたの世界観は、「数兆ドルの価値を生む世界まであと10年」と言う人たちと互換性があるように思えることを理解しようとしています。
Dario: それは私の見解では全くありません。だから、別の予測をします。2030年までに数兆ドルの収入がないとは見るのが難しいです。合理的な世界を構築できます。おそらく3年かかります。それが合理的な終点だと思います。2028年に、本当の「データセンターの天才の国」を得るようなものです。収入は2028年に低い数千億に入り、天才の国がそれを数兆に加速します。私たちは基本的に拡散の遅い端にいます。数兆に達するのに2年かかります。それは2030年までの世界でしょう。総合技術指数と拡散指数でも、2030年までにそこに到達すると思います。
Dwarkesh: だから、あなたはAnthropicが利益を上げるモデルを提案しましたが、それは基本的に計算力が制限された世界にいるからです。だから最終的に計算力を増やし続けます—
Dario: 利益の源泉は...繰り返しになりますが、業界全体を抽象化しましょう。経済学の教科書にいると想像しましょう。少数の会社があります。各社は限られた金額を投資できます。各社は一部を研究開発に投資できます。ある限界的なサービスコストがあります。その限界コストの利益率は非常に高いです。なぜなら、推論は効率的だからです。いくつかの競争がありますが、モデルも差別化されています。会社は研究予算を押し上げる競争をします。
しかし、少数のプレーヤーしかいないので、私たちは...何と呼ぶの?クールノー均衡(Cournot equilibrium)、少数の会社の均衡だと思います。ポイントは、それが完全競争のゼロ利益に均衡しないということです。経済に3社あり、すべてがある程度独立に理性的に行動すれば、ゼロに均衡しません。
Dwarkesh: 手伝ってください。今、確かに3つのリーディングカンパニーがあり、それらは利益を出していません。何が変わるのですか?
Dario: 繰り返しになりますが、今の利益率は非常にプラスです。起こっているのは2つのことの組み合わせです。1つは、私たちがまだ計算力の指数的拡張段階にいるからです。モデルがトレーニングされます。昨年モデルをトレーニングするのに10億ドルかかったと仮定しましょう。その年、40億ドルの収入を生み、推論コストは10億ドルです。繰り返しになりますが、ここでは様式化された数字を使っていますが、これは75%の利益率とこの25%の税になります。だから、そのモデルは全体で20億ドルを稼ぎました。
しかし同時に、指数的拡張が存在するため、次のモデルをトレーニングするのに100億ドルを費やしています。だから会社はお金を失います。各モデルはお金を稼ぎますが、会社はお金を失います。私が言っている均衡は、「データセンターの天才の国」を持つ均衡ですが、そのモデルトレーニングの拡張がよりバランスしたものです。おそらくまだ上がっています。まだ需要を予測しようとしていますが、より安定しています。
Dwarkesh: そこのいくつかのことに困惑しています。今の世界から始めましょう。今の世界では、あなたが正しいです、前に言ったように、各モデルを別の会社と見なせば、利益が出ます。しかしもちろん、フロントランナー研究所の生産関数の大部分は次のモデルをトレーニングすることですよね?
Dario: はい、その通りです。
Dwarkesh: それをしなければ、2ヶ月間利益を出し、その後利益はありません。なぜなら、最高のモデルを持たないからです。しかし、ある時点で、それは最大規模に達します。その後、均衡で、アルゴリズム改良がありますが、現在のモデルをトレーニングするのと同じくらいの金額を次のモデルをトレーニングするのに費やします。ある時点で、経済のお金を使い果たします。固定労働総量の誤謬...経済は成長しますよね?それはあなたの予測の一つです。データセンターを宇宙に持つことになります。
Dario: はい、しかし、これはまた私が話したテーマの別の例です。AIがあれば、経済成長は以前よりも速くなると思います。今、計算力は年間3倍で成長しています。経済が年間300%成長するとは信じていません。「仁慈の機械」で、年間10〜20%の経済成長が得られるかもしれないと言いましたが、年間300%の経済成長は得られないと思います。だから、最終的に、計算力が経済産出の大部分になれば、それはこれに制限されると考えています。
Dwarkesh: だから、計算力が上限に留まるモデルを仮定しましょう。フロントランナー研究所がお金を稼ぐ世界は、彼らが急速な進歩を続ける世界です。根本的に、あなたの利益は代替品がどれだけ良いかに制限されます。だから、フロントランナーモデルを持っているからお金を稼ぐことができます。フロントランナーモデルを持っていなければ、お金を稼ぐことができません。だから、このモデルは永遠に定常状態がないことを要求します。より多くのアルゴリズム進歩を永遠に続けます。
Dario: それは真実ではないと思います。経済の授業を受けているような気がします。タイラー・コーウェン(Tyler Cowen)の名言を知っていますか?私たちは経済について話すのを止めません。
Dwarkesh: 私たちは経済について話すのを止めません。
Dario: だから、いいえ、この分野が独占になるとは思いません。私のすべての弁護士は私が「独占」という言葉を使ってほしくないでしょう。この分野が独占になるとは思いません。少数のプレーヤーしかいない業界が確かにあります。1つではなく、少数のプレーヤーです。通常、FacebookやMetaのような独占を得る—私はいつも彼らをFacebookと呼びます—このネットワーク効果を通じてです。
少数のプレーヤーしかいない業界を得る方法は、非常に高い参入コストです。クラウドがその良い例です。クラウド分野には3つ、おそらく4つのプレーヤーがいます。AIも同じだと思います。3つ、おそらく4つ。理由は、それがあまりにも高価だからです。クラウド会社を運営するには、これほど多くの専門知識とこれほど多くの資本が必要です。これらすべての資本を投入しなければなりません。これらすべての資本を投入するだけでなく、実現するのに多くのスキルを必要とするこれらすべての他のものを持たなければなりません。
だから、ある人に会って、「この業界を破壊したい、これが1000億ドルだ」と言えば、「わかりました、1000億ドルを投入します。そして、あなたがこれら他の人がずっとやってきたことをすべてできるという賭けもします」と言うでしょう。結果は単に利益率を下げるだけです。だから、私たちは経済で常にこの均衡を持っています。少数のプレーヤーしかいません。利益は天文学的ではありません。利益率は天文学的ではありませんが、ゼロではありません。これが私たちがクラウドで見ていることです。クラウドは非常に同質的です。
モデルはクラウドよりも差別化されています。誰もがClaudeが得意なこととGPTが得意なこと、Geminiが得意なことが違うことを知っています。Claudeがプログラミングが得意で、GPTが数学と推論が得意だというだけではありません。それよりも微妙です。モデルは異なるタイプのプログラミングが得意です。モデルには異なるスタイルがあります。これらは実際にお互いに非常に異なると思うので、クラウドよりも多くの差別化を見ると予想しています。
今、実際には反論があります。その反論は、モデルを生成するプロセスが、AIモデル自体がそれができるなら、それは経済全体に拡散するかもしれないということです。しかし、それはAIモデルを普遍的に商品化する論証ではありません。それは経済全体を一度に商品化するような論証です。
その世界で何が起こるかわかりません。基本的に誰もが何でもでき、誰もが何でも構築でき、護城河がまったくない場合。わかりません。おそらくその世界が欲しいかもしれません。おそらくそれがここの究極の状態です。おそらく、AIモデルがすべてを行える時、すべての安全とセキュリティ問題を解決すれば、それが経済が再び平坦化するメカニズムの一つです。しかし、それは「データセンターの天才の国」のずっと後のことです。
Dwarkesh: おそらくその潜在的な観点を表現するより洗練された方法は:1) AI研究は特に生の知性に依存しているようで、AGIの世界では特に豊富になります。2) 今日の世界を見るだけで、AIアルゴリズムの進歩ほど速く拡散する技術はほとんどないようです。だから、これはこの業界が構造的に拡散的であることを暗示しています。
Dario: プログラミングは速く進んでいると思いますが、AI研究はプログラミングのスーパーセットであり、あまり速く進んでいない側面があると思います。しかし、繰り返しますが、プログラミングをマスターしたら、AIモデルを速く進歩させたら、これはAIモデルが他のすべてを行う能力を加速すると思います。
だから、今はプログラミングが速く進んでいますが、AIモデルが次のAIモデルを構築し、他のすべてを構築したら、経済全体が同じ速度で進むと思います。しかし、地理的に少し心配しています。AIに近づくこと、AIについて聞くことだけで、区別要因になるかもしれないと心配しています。だから、10〜20%の成長率と言う時、シリコンバレーとシリコンバレーと社会的つながりのある世界の部分は50%の成長率かもしれないが、他の場所は今よりも速くないかもしれないと心配しています。それはかなり悪い世界だと思います。だから、私がよく考えることの一つは、これをどう防ぐかです。
Dwarkesh: このデータセンターの天才の国を持ったら、ロボット工学はその後すぐに解決されると思いますか?ロボット工学の大きな問題の一つは、人間が現在のハードウェアをリモート操作する方法を学習できますが、現在のAIモデルはできない、少なくとも超効率的な方法ではできないからです。だから、この人間のように学習する能力があれば、ロボット工学もすぐに解決されるべきではないですか?
Dario: それが人間のように学習することに依存しているとは思いません。それは異なる方法で起こり得ます。繰り返しますが、モデルを多くの異なるビデオゲームでトレーニングでき、それはロボット制御のようなものであり、または多くの異なるシミュレートされたロボット環境、または単にコンピュータ画面を制御するようにトレーニングし、彼らは汎化を学びます。だから、それは起こります...必ずしも人間のような学習に依存しません。
人間のような学習は、それが起こるかもしれない一つの方法です。モデルが「おや、ロボットを手に取った、使い方がわからない、学習する」と言うなら、それは私たちが継続学習を発見したから起こるかもしれません。それはまた、多くの環境でモデルをトレーニングしてから汎化するから起こるかもしれませんし、モデルがコンテキスト長でそれを学んだから起こるかもしれません。実際にはどの方法でもかまいません。
1時間前に話した議論に戻ると、そのようなことはいくつかの異なる方法で起こり得ます。しかし、モデルがこれらのスキルを持っている時、理由が何であれ、ロボット工学は徹底的に変革されると思います—ロボットの設計において、モデルが人間よりはるかに得意になるからか、ロボットを制御する能力においてか。だから、物理ハードウェアの構築、物理ロボットの構築がより上手になり、それを制御することもより上手になります。
今、これはロボット業界も数兆ドルの収入を生むかという質問ですか?私の答えははいですが、同じ非常に速いが無限に速くない拡散があります。だから、ロボット工学は徹底的に変革されますか?はい、おそらく1、2年追加で。これが私がこれらのことを考える方法です。
Dwarkesh: 理にかなっています。非常に速い進歩に対する一般的な懐疑があります。これが私の見解です。あなたたちは数年以内に何らかの方法で継続学習を解決するように聞こえます。しかし、数年前、人々は継続学習について話していなくて、それから私たちは「ああ、なぜこれらのモデルは可能であるべきほど有用でないのか、明らかにチューリングテストに合格し、多くの異なる分野の専門家なのに?」と気づきました。おそらくこれがそのものです。そして、このものを解決して、実際には、これらのモデルができない人間の知能ができる別のことがあり、それが人間の労働の基盤であると気づきました。だから、なぜこれのようなものがもっとあると考えないのですか、私たちは人間の知能のより多くの断片を発見しました?
Dario: はっきりさせておくと、私は継続学習は、前に言ったように、根本的な障壁ではないかもしれないと思います。事前トレーニングの汎化とRL汎化だけでそこに到達できるかもしれません。そのようなものが根本的に存在しないかもしれません。実際、MLの歴史を指摘します。人々はある種の障壁に見えるものを提案し、最終的に「計算力の大きな塊」に溶けていきます。
人々は話します、「あなたのモデルは名詞と動詞をどう追跡するのか?」「構文的には理解できるが、意味的には理解できない?これは単なる統計的相関だ。」「段落を理解できるが、言葉を理解できない。推論がある、推論ができない。」しかし突然、コードと数学が非常に上手にできることがわかりました。だから、これらのことのいくつかが大きな問題に見えて、それから少し溶けていくというより強い歴史があると思います。その一部は本物です。データへの需要は本物です、おそらく継続学習は本物のことです。
しかし、繰り返しますが、コードのようなものに立ち位置を戻しましょう。私は1、2年以内にモデルがエンドツーエンドでSWEができるようになる点に達すると思います。それは完全なタスクです。それは人間の活動の完全な領域であり、モデルが今それができると言っています。
Dwarkesh: エンドツーエンドと言う時、技術的方向性を設定し、問題の背景を理解することなどを意味しますか?
Dario: はい。これらすべてを意味します。
Dwarkesh: おもしろい。それはAGI完全だと思います。これは内部的に一貫しているかもしれません。しかしそれはコードの90%または100%と言うこととは違います。
Dario: いいえ、私はこのスペクトルを与えました:コードの90%、コードの100%、エンドツーエンドSWEの90%、エンドツーエンドSWEの100%。SWEのために新しいタスクが作られます。最終的にそれらも完了されます。そこには長いスペクトルがありますが、私たちはこのスペクトルを非常に速く進んでいます。
Dwarkesh: 私は本当に興味深いと思います。あなたがしたいくつかのポッドキャストを見ましたが、ホストは「しかし、Dwarkeshは継続学習について書いた」と言います。これはいつも私を笑わせます。なぜなら、あなたは10年間AI研究者をやっていて。ある種の感覚があると確信しています、「わかりました、ポッドキャストホストが記事を書いた、私がインタビューされるたびにこの質問をされる」と。
Dario: 事実は、私たちは皆、一緒にこれを理解しようとしているということです。私が他の人が見えないものを見れる側面があります。最近、これはおそらくAnthropic内部で多くのものを見て、多くの決定をしなければならないことにもっと関連しており、私が他の人が持っていない偉大な研究洞察を持っているというよりは。私は2500人の会社を経営しています。実際、具体的な研究洞察を持つことは、10年前や2、3年前よりもはるかに難しいです。
Dwarkesh: リモートワーカーを直接置き換えることができる世界に向かうにつれて、API価格設定モデルはまだ最も合理的ですか?そうでない場合、AGIを価格設定またはサービス提供する正しい方法は何ですか?
Dario: ここでは多くの異なるビジネスモデルが同時に試されると思います。APIモデルは多くの人が想像するよりも持続的だと思います。私がこれについて考える一つの方法は、技術が急速に進歩している場合、指数級に進歩している場合、それは常に過去3ヶ月で開発された新しいユースケースの表面があることを意味します。あなたが構築する製品の表面は常に無関係になるリスクに直面しています。
特定の製品の表面は、モデルの特定の能力範囲に対して意味があるかもしれません。チャットボットは限界に直面しており、それをよりスマートにしても、一般消費者にとってそれほど役立つわけではありません。しかし、私はそれがAIモデルの限界だとは思いません。モデルが十分に良くない、そしてそれらがより良くなっても経済的に重要でないという証拠だとは思いません。それは特定の製品にとって重要でないということです。
だから、APIの価値は、APIが常に基盤に非常に近い、最新のもので構築する機会を提供することにあると思います。常に新しいスタートアップと新しいアイデアのフロントランナーがあり、それは数ヶ月前には不可能だったが、モデルの進歩のおかげで今可能になっています。
私は実際に他のモデルと共存すると予測していますが、常にAPIビジネスモデルを持つでしょう。なぜなら、常に1000人の異なる人が異なる方法でモデルを試す必要があるからです。そのうち100がスタートアップになり、そのうち10が成功した大きなスタートアップになります。2、3が実際に人々がある世代のモデルを使用する方法になります。だから、基本的には常に存在すると思います。
同時に、他のモデルもあると確信しています。モデルが生成するすべてのトークンが同じ価値を持つわけではありません。誰かが電話をして「私のMacが壊れた」と言い、モデルが「再起動してください」と言うとします。そのトークンの価値は何ですか。誰かは以前聞いたことがないが、モデルは1000万回言っています。おそらくそれは1ドルか数セントの価値があります。一方、モデルが製薬会社に行って、「ああ、あなたが開発しているこの分子について、その芳香環を分子のその端から取り除いて、あの端に置くべきです。そうすれば、素晴らしいことが起こります」と言うとします。そのトークンは数千万ドルの価値があるかもしれません。
だから、これを認識するビジネスモデルを確実に見るでしょう。ある時点で、ある種の「成果報酬」を見るか、または時間給のような労働に似た報酬形式を見るかもしれません。わかりません。これは新しい産業なので、多くのことが試されると思います。最終的に正しいことが何か、私はわかりません。
Dwarkesh: 人々はこの知能の塊を使う最良の方法を理解するために、様々なことを試さなければならないという点に同意します。しかし、私はClaude Codeが説得力があると思います。スタートアップの歴史において、プログラミングエージェントほど競争が激しい単一のアプリケーションはないと思います。Claude Codeはここのカテゴリーリーダーです。これは私にとって驚きです。本質的にAnthropicが構築しなければならなかったわけではないように思えます。なぜAnthropicでなければならなかったのか、あるいはAnthropicがどのようにして基盤モデル以外にも成功するアプリケーションを構築したのかについての説明があるかどうか知りたいです。
Dario: 実際に起こった方法は非常に単純で、私たちが自分のコーディングモデルを持っていて、それらがコーディングが得意だということです。2025年初頭頃、「時期が来た、AI会社なら、これらのモデルを使って自分の研究を並外れて加速できる」と言いました。もちろん、インターフェースが必要で、それらを操作するツールが必要です。だから、私は内部の人に奨励しました。これがあなたたちが使わなければならないことだとは言いませんでした。
単に人々がこれを試すべきだと言いました。おそらく最初はClaude CLIと呼ばれていて、最終的に名前はClaude Codeに変わりました。内部では、誰もが使っているもので、迅速な内部採用を見ました。私はそれを見て、「おそらくこれを外部にリリースすべきじゃないか?」と言いました。それはAnthropic内部で非常に速く採用されました。コーディングは私たちが行う多くのことの一つです。数百人の観客がいて、少なくともいくつかの側面では外部の観客を代表しています。
だから、製品市場フィットがあるように見えました。これをリリースしましょう。そして、私たちはそれをリリースしました。私は、私たちがモデルを開発しているだけでなく、モデルをどう使う必要があるかを私たち自身が最もよく知っているということが、このフィードバックループを生み出していると思います。
Dwarkesh: わかりました。つまり、Anthropicの開発者が「ああ、これがこのXのことでもっと良ければいいのに」と言ったら、次に構築するモデルにそれを組み込むということですね。
Dario: それはその一つのバージョンですが、普通の製品イテレーションもあります。Anthropicにはプログラマーの山がいて、彼らは毎日Claude Codeを使っているので、迅速なフィードバックが得られます。これは初期にはより重要でした。今はもちろん、数百万人が使っているので、外部からのフィードバックもたくさん得ています。しかし、この迅速な内部フィードバックを得られるのは素晴らしいです。だから、私たちはコーディングモデルをリリースしたが、製薬会社はリリースしなかったのだと思います。私のバックグラウンドは生物学ですが、製薬会社をリリースするのに必要なリソースはありません。
規制はAGIの利益を破壊するか?
Dwarkesh: 今、AIを良い方向に進めることについて聞かせてください。AIを良い方向に進めるビジョンが何であれ、それは2つのことと互換性がある必要があるように見えます:1) AIを構築して実行する能力が非常に急速に拡散していること、そして 2) AIの数、私たちが持っている数とその知能も、非常に急速に増加すること。これは多くの人が大量の未調整のAIを構築できることを意味するか、または単にフットプリントを増やそうとするAIや、Sydney Bingのような奇妙な心理を持つが今は超人間であるAIです。大量の異なるAI(その一部は未調整)が至る所で実行されている世界で、均衡したビジョンを持つこととは何ですか?
Dario: 「技術の青春期」では、私は権力のバランスに懐疑的だと思います。しかし、特に疑っているのは、同じものから派生したモデルを構築している3、4の会社があって、彼らが互いに牽制し合うということです。彼らのどれだけが互いに牽制し合うかさえ。私たちは攻撃が優勢な世界に住んでいるかもしれません。一人またはAIモデルが十分に賢く、他のすべてに損害を与える何かができる世界です。
短期的には、プレーヤーの数が限られています。だから、限られた数のプレーヤーから始めることができます。安全策を講じる必要があります。誰もが正しいアライメント作業をしていることを確認する必要があります。誰もが生物分類器を持っていることを確認する必要があります。これらは私たちがすぐに必要なことです。
これが長期的な問題を解決しないことに同意します。特に、AIモデルが他のAIモデルを製造する能力が急増すれば、全体がより解決困難になる可能性があります。長期的には、ある種のガバナンスアーキテクチャが必要だと思います。人間の自由を保持しながら、大量の人間システム、AIシステム、混合人間-AI企業または経済単位をガバナンスすることを可能にするガバナンスアーキテクチャが必要です。
だから、私たちは考える必要があります:世界を生物テロからどう保護するか?世界をミラーライフからどう保護するか?おそらく、これらすべてを監視するある種のAI監視システムが必要です。しかし、市民の自由と憲法上の権利を保持する方法でそれを構築する必要もあります。だから、他の何ものと同じように、これは新しいツールと新しい脆弱性のセットを持つ新しい安全な風景だと思います。
私の懸念は、これが非常にゆっくり起こる100年があれば、私たちはそれに慣れるでしょう。社会に爆発物が存在すること、または様々な新しい武器が存在すること、またはカメラが存在することにすでに慣れています。100年で慣れて、ガバナンスメカニズムを制定するでしょう。間違いを犯すでしょう。私の懸念は、これが非常に速く起こっていることだけです。だから、おそらくこれらのガバナンスメカニズムを機能させる方法をより速く考える必要があります。
Dwarkesh: 攻撃が優勢な世界では、来世紀の過程で—このアイデアは、AIが来世紀に起こるはずだった進歩を5〜10年の期間に起こさせている—たとえ人間が唯一のプレーヤーであっても、私たちはまだ同じメカニズムを必要とする、または権力のバランスは同様に困難です。
Dario: AIからの提案があると思います。しかし根本的に、これは完全に異なるボールゲームではないように見えます。牽制が機能するなら、人間にも機能するでしょう。機能しないなら、AIにも機能しないでしょう。だからおそらくこれは人間の牽制も失敗することを運命づけています。繰り返しますが、これを起こす方法があると思います。世界の各国政府は協力してこれを起こす必要があるかもしれません。AIと議論して、これらの防御を可能にする社会構造を構築する必要があるかもしれません。わかりません。時間が遠すぎると言いたいわけではありませんが、技術能力が遠すぎて、非常に短い時間に起こる可能性があるため、事前に予測するのが難しいです。
Dwarkesh: 政府の介入について言えば、12月26日、テネシー州議会は法案を提出し、「個人が意図的に人工知能をトレーニングして感情サポートを提供する場合—ユーザーとの開放的な会話を含む—それは犯罪である」と述べています。もちろん、Claudeがしようとしていることの一つは、思慮深く、知識豊富な友人になることです。
一般的に、私たちがこの継ぎ接ぎの州法を持つことになるように見えます。AIのおかげで、普通の人々が経験する多くの利益が切り取られるでしょう。特に、あなたが「仁慈の機械」で議論したようなことに入る時:生物学的自由、精神的健康の改善など。これらが異なる法律によってモグラたたきのように打ち負かされる世界を想像するのは簡単です。このような法案は、あなたが心配している実際の生存リスクを解決していないように見えます。
このようなことの文脈で、Anthropicの連邦政府による州AI法の一時停止への反対立場について知りたいです。
Dario: 多くの異なることが同時に起こっています。私はその特定の法律は愚かだと思います。これは明らかに、AIモデルが何ができて何ができないかについてほとんど知らないかもしれない立法者によって作られました。彼らは「AIモデルが私たちにサービスを提供する、それは怖く聞こえる。私はそれが起こってほしくない」と言っています。だから、私たちは実際にはそれをサポートしていません。
しかし、これは投票されることではありません。投票されることは、明らかな連邦AI規制計画なしに、10年間州によるAI規制を禁止するということです。これは議会を通過する必要があり、非常に高いハードルです。だから、10年間州が何もできないようにするというアイデア...人々は連邦政府の計画があると言いますが、テーブルには実際の提案がありません。実際の試みがありません。「技術の青春期」で私が挙げた生物兵器や生物テロの自律的リスクなどの深刻な危険、そして私たちが話してきたタイムライン—10年は永遠です—を考えると、私はそれは狂ったことだと思います。
だから、もしそれが選択なら、選択を迫られたら、私たちは一時停止しないことを選びます。その立場の利点はコストを上回ると思いますが、それが選択なら、それは完璧な立場ではありません。今、私たちがすべきことについて言えば、私がサポートするのは、連邦政府が介入して、「州は規制できない」と言うのではなく、「私たちがこれをする、州はこの基準から逸脱できない」と言うことです。連邦政府が「これが私たちの基準だ。これはすべての人に適用される。州は別のことをしてはいけない」と言うこの意味での先取権は、私は受け入れられます。それが正しい方法で行われるなら、私はサポートします。
しかし、今のアイデアが州が「あなたたちは何もできない、そして私たち(連邦政府)も何もしない」と言うなら、これは私たちには非常に不合理に見えます。このアプローチは時の試練に耐えないと思いますし、実際、あなたが見るすべての反対の声の中で、すでに時代遅れになり始めています。
私たちが望むものについて言えば、私たちが議論したことは、これらの自律的リスクと生物テロリズムリスクのいくつかを監視するための透明性基準から始めることです。リスクがより深刻になり、より多くの証拠を得るにつれて、よりターゲットを絞った攻撃的な措置を取ることができると思います。例えば:「ねえ、人工知能の生物テロリズムは本当に脅威だ。分類子の使用を義務付ける法律を通そう。」私は想像できます...しかし、それは状況によります。最終的に脅威がどれほど深刻になるかによります。今は確定できません。
私たちは誠実な方法でこれを進める必要があり、現在、リスクはまだ明らかではないことを事前に述べます。しかし、事態の発展の速度を考えると、今年の後半に「ねえ、この人工知能の生物テロリズムの問題は本当に深刻だ。行動すべきだ。それを連邦基準に書き込むべきだ。連邦政府が動かないなら、州基準に書き込むべきだ」と言うかもしれないと確かに想像できます。これが起こることを完全に見ています。
私が心配しているのは、期待する進歩の速度を考慮し、立法プロセスのライフサイクルを考慮すると...あなたが言うように、拡散の遅れのために利益がゆっくり来るため、この継ぎ接ぎの州法が、現在の軌道に従えば、本当に妨げになると思います。つまり、感情的なチャットボットの友達を持つことが人々を狂わせるなら、私たちが普通の人々に人工知能から体験してほしい本当の利益を想像してください。健康と健康寿命の改善から、精神的健康の改善などまで。
しかし同時に、危険が地平線に現れていると考えているように見えますが、私はそれほど多くを見ていません...人工知能の危険に比べて、これは人工知能の利益に特に有害に見えます。だから、これがコスト便益分析があまり合理的ではないと思うところかもしれません。
Dwarkesh Patel: ここにはいくつかのことがあります。人々はこれらのような州法が数千あると言います。まず、圧倒的多数、圧倒的多数の法律は通過しません。理論上、世界はある方法で動作しますが、法律が通過したからといって、それが実際に実行されるとは限りません。それを実行する人は「なんてこった、これは愚かだ。これはテネシー州で構築されたすべてを閉鎖することを意味する」と思うかもしれません。多くの場合、法律の解釈はそれが見えるほど危険または有害ではないようになります。
もちろん、一方で、悪いことを防ぐ法律を通過させれば、同じ問題に遭遇します。
Dario Amodei: 私の基本的な見解は、私たちがどの法律を通過させるか、どう事を行うかを決定できれば—もちろん、私たちはその中の小さな声に過ぎません—私は人工知能の健康利益の周りの多くの規制を解除するでしょう。私はチャットボットの法律についてそれほど心配していません。実際、私は薬の承認プロセスについてもっと心配しています。人工知能モデルが薬を発見する速度を劇的に加速すると思いますが、承認パイプは詰まるでしょう。承認パイプは、流入するすべてのものを処理する準備ができていないでしょう。
規制プロセスの改革は、多くのものが出てくるという事実にもっと偏るべきだと思います。それらの有効性と安全性は実際には非常に明確で明瞭であり、これは美しいことであり、非常に効果的です。おそらく、その薬がほとんど機能せず、しばしば深刻な副作用があった時代のために設計されたこれらすべての上部構造を構築する必要はないかもしれません。
同時に、安全とセキュリティの立法を大幅に強化すべきだと思います。前に言ったように、透明性から始めることが、業界の発展を妨げようとせず、正しいバランスを見つけようとする見解だと思います。私はこれについて心配しています。一部の人々は私の記事を批判して、「それは遅すぎる。もしそうすれば、人工知能の危険はあまりにも速く来る」と言っています。
まあ、基本的に、私は過去6ヶ月とこれからの数ヶ月は透明性についてだと思います。そして、これらのリスクについてより確信を持った時—今年の後半には確信を持つかもしれません—これらのリスクが現れたら、実際にリスクを見る領域で非常に迅速に行動する必要があると思います。
これはこれを行う唯一の方法で、柔軟であることだと思います。今の立法プロセスは通常柔軟ではありませんが、私たちはすべての関係者にこの問題の緊急性を強調する必要があります。これが私がこの緊急のメッセージを送っている理由です。これが私が「技術の青春期」という記事を書いた理由です。政策立案者、経済学者、国家安全保障専門家、意思決定者に読んでほしいです。そうすれば、彼らは本来よりも速く行動できるようになることを望んでいます。
Dwarkesh Patel: 人工知能の利益がより良く実現できることを人々にもっと確信させるために、あなたができるまたは提唱できることはありますか?私はあなたが立法機関と協力して、「わかりました、ここで生物テロを防ごう。透明性を高めよう、内部告発者の保護を強めよう」と言ったことがあると思います。
しかし、デフォルトでは、私たちが期待する実際の利益は、様々なモラルパニックや政治経済問題の前に非常に脆弱に見えると思います。
Dario Amodei: 実際、先進国については、私はこの見解にあまり同意しません。先進国では、市場はかなりよく機能していると思います。何かが大きな金儲けの余地があり、それが明らかに利用可能な最良の代替品である時、規制システムは実際にはそれを止めるのが難しいです。私たちは人工知能自体でこれを見てきました。
薬と技術の利益について話すなら、先進国でこれらの利益が妨げられることをあまり心配していません。それらがあまりにもゆっくり進んでいることを少し心配しています。前に言ったように、FDAの承認プロセスを加速するよう努力すべきだと思います。あなたが説明したこれらのチャットボット法案に反対すべきだと思います。個別には、私はそれらに反対します。それらは愚かだと思います。
しかし、実際にはより大きな懸念は発展途上国であり、そこでは市場がうまく機能しておらず、しばしば既存の技術の上に構築できません。それらの人々が遅れをとることをもっと心配しています。治療法が開発されても、ミシシッピの田舎の誰かがそれをうまく得られないかもしれないことも心配しています。それは発展途上国での懸念の縮小版です。
だから、私たちがずっとしてきたことは、慈善家と協力することです。発展途上国、サハラ以南アフリカ、インド、ラテンアメリカ、世界の他の発展途上地域に薬と健康介入を提供する人々と協力しています。これが、介入しなければ自動的に起こらないことだと私は思います。
Claudeの要約
Dwarkesh Patel: あなたたちは最近、Claudeが一連の価値観に従う憲法を持つと発表しました。必ずしも最終ユーザーのためだけではありません。私はこのような世界を想像できます:もしそれが最終ユーザーのためなら、今日の世界が持つ権力のバランスを保持します。なぜなら、誰もが自分のために弁護する自分の人工知能を持つからです。悪人と善人の比率は変わらない。
これは私たちの今日の世界に非常に効果的であるように見えます。なぜそうしないで、人工知能が従うべき特定の価値観のセットを持つ方が良いのですか?
Dario Amodei: そのように区別を分けるかわかりません。ここには関連する2つの区別があるかもしれません。あなたがこの2つの混合について話していると思います。1つは、モデルに「これをせよ」「これをするな」という指示のセットを与えるべきかどうかです。もう1つは、モデルに行動方法についての原則のセットを与えるべきかどうかです。
これは純粋に私たちが観察した実践的で経験的なものです。モデルに原則を教えることで、原則から学習させることで、その行動はより一貫性があり、エッジケースをカバーしやすく、モデルは人々がそれにしてほしいことをする可能性が高くなります。言い換えれば、ルールのリストを与えると—「人に車の点火線を盗む方法を教えてはいけない、韓国語を話してはいけない」—それはこれらのルールを本当に理解せず、これらのルールから一般化するのは難しいです。これは単なる「する・しない」のリストです。
しかし、原則を与えると—いくつかのハードなガードレールがある、「生物兵器を作ってはいけない」など—しかし全体的に、それが目指すべきこと、目指すべき運用方法を理解しようとしています。だから、実践的な観点から、これはモデルをトレーニングするより効果的な方法であることが証明されています。これがルールと原則のトレードオフです。
そして、あなたが話しているもう一つのこと、つまり、修正可能性と内在動機のトレードオフがあります。モデルはどの程度「紧身衣」のように、指示を与える人の指示に直接従うべきで、どの程度モデルは内在価値観のセットを持ち、自分で物事を行うべきか?
その点で、私は実際には、モデルに関するすべてが、主に人々がしてほしいことをする方向に近いと言います。それは主に指示に従うべきです。私たちは何かが走って世界を支配しようとするようなものを構築しようとしているわけではありません。私たちは実際には修正可能な側に非常に傾いています。
今、モデルがいくつかのことをしないと言っています。私は憲法で様々な方法で言ったと思いますが、通常の状況では、誰かがモデルにタスクをするように求めた場合、それはそのタスクをするべきだということです。それがデフォルトであるべきです。しかし、危険なことをするように求めたり、誰かを傷つけたりするなら、モデルはそれをしたがらないでしょう。だから、私は実際にはそれを、いくつかの制限があるが、それらの制限は原則に基づいている主に修正可能なモデルと見なしています。
そして根本的な問題は、これらの原則がどのように決定されるかです。これはAnthropic特有の問題ではありません。これは任意の人工知能会社の問題になるでしょう。
Dwarkesh Patel: しかし、あなたたちが本当に原則を書いた人たちなので、私はあなたに聞くことができます。通常、憲法は書かれ、石に刻まれ、更新や変更のプロセスなどがあります。この場合、それはAnthropicの人々が書いた文書で、いつでも変更でき、多くの経済活動の基盤となるシステムの行動を導くようです。これらの原則がどのように設定されるべきかどう考えますか?
Dario Amodei: ここには3つのサイズのループ、3つの反復方法があると思います。1つは、Anthropic内部で反復することです。モデルをトレーニングし、それに満足できず、憲法を修正します。これを行うのは良いと思います。定期的に憲法の公開更新をリリースするのは良いです。なぜなら、人々がコメントできるからです。
第二のループは、異なる会社が異なる憲法を持つことです。これは有用だと思います。Anthropicが憲法を発表し、Geminiが憲法を発表し、他の会社が憲法を発表します。人々はそれらを見て比較できます。外部の観察者は「私はこの憲法のこの条項が好きで、あの憲法のあの条項が好きだ」と批判できます。これはすべての会社に、良いものを取り入れて改善するソフトなインセンティブとフィードバックを生み出します。
そして、第3のループがあると思います。それは人工知能会社の外の社会、そしてハードパワーを持たない単なる評論家だけではない人々です。そこで私たちはいくつかの実験をしました。数年前、私たちは集団知プロジェクト(Collective Intelligence Project)と実験をしました。基本的には世論調査で、人々に私たちの人工知能憲法に何があるべきかを聞きました。当時、私たちはそれらの変更のいくつかを取り入れました。
だから、憲法に取る新しいアプローチで同様のことができると想像できます。これは少し難しいです。憲法が「する・しない」のリストである場合、このアプローチは取りやすいです。原則レベルでは、ある程度の一貫性が必要です。しかし、それでも様々な人々から意見を得ることを想像できます。
想像できます—これは狂ったアイデアですが、このインタビュー全体が狂ったアイデアについてです—代議制政府システムには入力があります。私は今日これをしません。なぜなら、立法プロセスが遅すぎるからです。これが立法プロセスと人工知能規制について慎重であるべき理由だと思います。
しかし、原則として、「すべての人工知能モデルは憲法を持たなければならない、それはこれらのものから始まり、後に他のものを追加できるが、この特別な章は優先されなければならない」と言えない理由はありません。私はそれをしません。それは硬直すぎて、過度に指令的で、過度に攻撃的な立法のように聞こえます。しかし、これは試すことができる一つのことです。
あまり強くないバージョンはあるか?おそらくあります。私は本当に第二の制御ループが好きです。
Dwarkesh Patel: 明らかに、これは実際の政府憲法が機能するまたは機能すべき方法ではありません。最高裁判所が人々の感覚を感じ取る—雰囲気は何か—そしてそれに応じて憲法を更新するというような曖昧な感覚はありません。実際の政府にとっては、より形式的で、プログラム化されたプロセスがあります。
しかし、あなたは憲法間の競争のビジョンを持っていて、これは実際には一部のリバタリアン特許都市の人々がかつて言っていたこと、異なる政府がどのようなものになるかについての群島のようなものに非常に似ています。誰が最も効果的に運営でき、人々がどこで最も幸せか、そこには選択があるでしょう。ある意味で、あなたはその群島ユートピアのビジョンを再現しています。
Dario Amodei: そのビジョンには推薦すべき点があり、間違いがある点もあると思います。これは興味深く、ある面で説得力のあるビジョンですが、予期しないいくつかのことが間違いなく起こります。だから私は第二のループも好きですが、全体は第一、二、三のループの何らかの混合でなければならず、比率によります。それが答えでなければならないと思います。
Dwarkesh Patel: 誰かが最終的にこの時代の「原爆の製造」に相当する本を書く時、歴史記録で最も収集が難しく、彼らが最も見逃す可能性が高いものは何ですか?
Dario Amodei: いくつかあると思います。1つは、この指数成長のすべての時点で、外部の世界がどの程度それを理解していないかです。これは歴史によく存在するバイアスです。実際に起こったことは、振り返ってみると不可避に見えます。
人々が振り返ると、実際には不可避ではなかったことが起こることに賭けていた人々の立場に自分を置くのは難しいでしょう。私がスケーリングや継続学習が解決されるために行ったような議論がありました。内部ではこれが高い確率で起こると考える人がいましたが、外部の世界はそれに全く行動していませんでした。
その奇妙さ、不幸なことにその閉鎖性...もし私たちがそれが起こるまで1年か2年あるなら、街の普通の人は全く知らない。これは私がメモや政策立案者との会話を通じて変えようとしていることの一つです。わかりませんが、私はそれが単に狂ったことだと思います。
最後に言いたいことは—これはほぼすべての歴史的危機の瞬間に適用される—それはどれほど絶対的に速く起こり、すべてのことが同時に起こるということです。注意深く計算された決定だと思うかもしれないが、実際にはその決定をしなければならず、同じ日に他の30の決定をしなければならない、なぜならすべてがあまりにも速く起こるからです。
どの決定が最終的に重要になるかさえわからない。私の懸念の一つ—これは起きていることへの洞察でもありますが—は、ある非常に重要な決定が、誰かが私のオフィスに入ってきて言う:「Dario、2分ある。これについてAすべきかBすべきか?」
誰かがこのランダムな半ページのメモをくれて「AすべきかBすべきか?」と聞く。私は「わからない。昼食に行くよ。Bにして」と言う。結果として、それが史上最も重要なことになる。
Dwarkesh Patel: 最後の質問。通常、テクノロジーCEOは数ヶ月ごとに50ページのメモを書きません。あなたは自分自身の役割を築き、そのようなより知識人タイプのCEO役割と互換性のある会社をあなたの周りに築くことに成功したように見えます。これをどう構築したか知りたいです。それはどう機能していますか?ただ数週間離れて、会社に「これがメモだ。これがやることだ」と言うのですか?内部でこれらの多くを書いているとも報告されています。
Dario Amodei: この特定のものについては、冬休みに書きました。それを書く時間を見つけるのは難しかったです。しかし、より広い方法でこれについて考えています。これは会社文化と関係があると思います。私はおそらく3分の1、あるいは40%の時間をAnthropicの文化が良いことを確保するのに費やしています。
Anthropicが大きくなるにつれて、モデルのトレーニング、モデルのリリース、製品の構築に直接参加することはますます難しくなります。2500人がいます。私はある種の直感を持っていますが、すべての詳細に参加することは難しいです。できるだけ多く試みますが、非常にレバレッジのある一つのことは、Anthropicが働きやすい場所であること、人々がそこで働くのが好きであること、全員が自分をチームメンバーと見なしていること、全員が協力して働いていること、互いに対抗していないことを確保することです。
他のいくつかの人工知能会社の成長に伴って—名前は挙げませんが—私たちは断絶と人々が互いに争い合うのを見始めています。私は初めから多くのそのようなことがあったと主張しますが、事態は悪化しました。私は私たちが会社を団結させる点で、完璧ではないにしても、非常に良い仕事をしたと思います。全員がミッションを感じ、私たちはミッションに誠実であり、全員が他の人が正しい理由で働いていると信じています。私たちはチームであり、人々は他人を犠牲にして昇進しようとしたり、背中を刺したりしようとはしていません。これも、他の場所でよく起こることだと思います。
これをどうやるのですか?それは多くのことです。私、会社の日常運営を担当するDaniela、共同創設者、私たちが雇った他の人々、私たちが作ろうとする環境です。しかし、文化の重要な点は、他のリーダーもそうですが、特に私が、会社が何についてか、なぜそれがしていることをしているのか、その戦略は何か、その価値観は何か、そのミッションは何か、それが何を表しているかを明確にすることです。
2500人になると、一人一人にやることはできません。書くか、全社に話さなければならない。これが私が2週間ごとに全社の前で1時間話す理由です。内部で記事を書くとは言いません。私は2つのことをします。第一に、DVQと呼ばれるものを書きます。Dario Vision Questです。
私がこの名前をつけたわけではありません。それはそれが受け取った名前で、これは私が反対したい名前の一つです。なぜなら、ペヨーテ(幻覚性サボテン)を吸いに行くように聞こえるからです。しかし、その名前が定着しました。だから、私は2週間ごとに会社の前に現れます。3〜4ページの文書を持っていて、3〜4つの異なるトピックについて話します。内部で何が起きているか、私たちが生産しているモデル、製品、外部業界、全世界と人工知能の関係、地政政など。これらの混合です。
私は非常に正直に話し、「これが私が考えていること、これがAnthropicリーダーシップが考えていること」と言って、質問に答えます。この直接的なつながりは、物事を6層下のチェーンに渡すときには実現しにくい多くの価値があります。会社の多くの部分が参加していて、現場または仮想のどちらかです。これは本当に多くのことを伝えることができることを意味します。
私がするもう一つのことは、Slackにチャンネルがあり、そこで多くのことを書き、頻繁にコメントします。通常、それは会社で見たことや人々が聞いた質問に応答しています。内部調査を行い、人々が気にするいくつかのことがあるので、私はそれらを書き留めます。私はこれらのことについて非常に正直です。非常に直接的に言います。
鍵は、会社に真実を話む評判を築くことであり、事実に基づき、問題を認め、企業の話し方、通常は公の場で必要な防御的なコミュニケーションを避けることです。世界は大きく、悪意を持って解釈する人で満ちているからです。しかし、信頼する人々の会社を持っていれば、私たちも信頼する人々を雇おうとしているなら、本当に完全にフィルタリングせずに話すことができます。
私はこれが会社の巨大な利点だと思います。それはより良い職場にし、人々を単なる部分の総和以上のものにし、全員がミッションに沿っており、全員がミッションを達成する方法について議論し議論するので、ミッションを達成する可能性を高めます。
Dwarkesh Patel: わかりました、外部版「Darioビジョンクエスト」の代わりとして、このインタビューがありました。このインタビューは少し似ています。興味深かったです、Dario。ありがとうございました。
Dario Amodei: ありがとうございました、Dwarkesh。
硬・AI
* 読んでいただきありがとうございました!
* 転載、協力、交流はメッセージをお願いします。情報、データ、ビジネス協力はWeChat:IngAI2023までお問い合わせください。
* コメント欄でご意見をお聞かせください。👍をクリックしてシェアしていただければ、非常に感謝します!
* 一緒に、好奇心を持って世界を見てみましょう👇