優秀なエンジニアは常に供給不足!グーグル CEO が明かす投資ロジック「外界はグーグルを過小評価している」「10 倍拡大の時代へ、AI と既存製品はゼロサムではない」「メモリが最大のボトルネックに」

画像
画像
編集 | 雲昭

4 月 7 日、グーグルのサンダー・ピチャイ CEO が異例となる「酒席でのインタビュー」に応じた。

インタビュアーのジョン氏とエラッド・ギル氏は、一貫して「核心を突く」姿勢でピチャイ氏に質問を浴びせた。話題は世間が注目する「OpenAI への逆転」だけでなく、産業界が現在最も懸念する喫緊の課題にまで及んだ。

例えば、ピチャイ氏は「2026 年は供給が逼迫する年になる」との深刻な見通しを示した。AI 発展の道筋を阻む要因として、エネルギー、計算能力(コンピュート)、規制当局の承認プロセス、そして現在最も早急に解決すべき課題であると彼が位置づける「メモリのボトルネック」について詳説した。

また、もう一つの重要なトレンドとして、今後 10 年間で「検索」という製品は存在し続けるのかという点にも言及。

ピチャイ氏の答えはやや意外なものであった。同氏によれば、将来の「グーグル検索」は「エージェント・マネージャー」へと進化するという。さらに重要な製品観として、AI ネイティブ製品と従来のモバイル製品は、本質的にゼロサム競争の関係にはないと共有した。

これこそが、同氏が考える外界によるグーグルへの過小評価が最も顕著な部分だという。

「ゼロサムの視点で見れば、状況は困難に思える。しかし、絶え間ないイノベーションと製品の進化を続ければ、それはゼロサム競争にはならない」

「我々は検索と Gemini の両方を開発している。一部で重複する部分もあるが、別の部分では明確に分化していくだろう」

さらにピチャイ氏は、「グーグルは Transformer を早期に発表したが、ChatGPT を最初に世に出したのは OpenAI であった」という事実についても振り返った。その理由を、一部で言われるような「グーグルは研究は強いが製品化が弱い」からではなく、長期的な製品と技術のバランス取りと選択の結果だと説明した。

「実際には、研究を行い、予想通りの大きな成果を得たとしても、それに基づいたすべての製品を発明できるわけではない。それは自然なことです」

加えて、宇宙空間データセンター、量子コンピューティング、自動運転、ロボット工学など、数多くの長期にわたる競争領域についても新たな見解を提示した。

同氏は、「宇宙空間データセンター」への賭けは、2010 年に Waymo への投資を検討した際と同様、20 年という視点で捉える必要があり、本質的に極めて複雑な問題であると認めた。さらに、「もっと早期に Waymo への投資を強化すべきだった」と率直に語った。

量子コンピューティングについては、直感的に見てその中核的価値は「自然をより良くシミュレートできること」だと指摘。「自然そのものが量子システムである以上、それをシミュレートするには量子システムの方が優位性がある」と述べた。

現在、完全には理解されていない化学肥料製造のハーバー法から、気象シミュレーション、現実世界のシミュレーションに至るまで、多くの複雑なシステムにおいて量子コンピューティングが優位性を発揮するという。

ある技術がスケールした暁には、人々の創造性によってその上に応用が見つかるものだ。

ここでピチャイ氏は、自身が投資先を判断する際のロジックも明かした。

それは、初期段階で深層技術(ディープテクノロジー)に賭けること。そしてその意思決定方法は、外界が考えるほど深遠なものではなく、次の 2 点に尽きるという。直感+長期的価値である。

「あるプロジェクトが 5 年から 10 年後にどの程度の市場規模(TAM)と潜在価値を持つかを考え、成長仮説を極めて攻撃的なレベルに引き上げてから、その投資が妥当か判断するのです」

また、今回のインタビューのもう一つのハイライトとして、ピチャイ氏は珍しく、グーグル内部の非常に視覚的な細部についても多くを共有した。

例えば、同氏にとっての最初の「AGI(汎用人工知能)モーメント」は最近のことではなく、2012 年のニューラルネットワークが猫を認識したデモの頃だったという。また最近、コードを書いている際でさえ、もはや言語が何であるかは気にせず、エージェントがタスクを完了させるのを見ているだけだという。「魔法のような」体験が、すでに現実に起きているという。

仕事の方法論としては、2 つの実践的な習慣を持つという。1 つ目は、自らを「ヘビーユーザー」に強制すること。例えば、30 分間連続して AI と対話する時間を設けるといったことだ。2 つ目は、報告書やデータに依存するだけでなく、最も生のユーザーフィードバックを直接確認することである。

さらに注目すべきは、同氏がすでに内部分析に AI エージェントを活用し始めている点だ。例えば、製品の長所短所の自動要約などを行っている。これは、CEO という役割さえもが、エージェントという文脈において大きく変化しつつあることを示唆しているようだ。

もう一つ言及すべきは、ピチャイ氏が産業界にありがちな「トークンコスト」と「エンジニアの給与」を比較する習慣的な対比を否定したことだ。同氏は、このロジックの前提が誤っており、AI の供給需要が満たされた後、ソフトウェア市場は最大 10 倍に拡大する可能性を人々が見落としていると指摘した。

「覚えておくべきは、優秀なソフトウェアエンジニアは常に供給不足だということ。供給が増えれば、市場そのものが 10 倍に膨らむ可能性がある」

つまり、言外に SaaS 業界が廃れることはないと言いたいのだろう。

以下は、編集部が厳選したグーグル CEO による最新インタビューの内容である。お楽しみください。

グーグルは OpenAI より 9 ヶ月遅れだっただけで、Transformer を製品化できなかったわけではない

ホスト:サンダー・ピチャイ氏は Google CEO 就任から 10 年目を終えたところだ。現在、Alphabet は世界最大のテクノロジー企業の一角であるだけでなく、AI 競争のリーダーでもあり、2026 年には 1,750 億ドルの設備投資を計画している。乾杯。

Google と AI について語る際、頻繁に持ち出される歴史がある。Transformer は Google で発明されたが、その製品化は主に Google の外、特に ChatGPT のような製品においてなされたという点だ。現在、あなたはこの件をどう見ているか?

サンダー・ピチャイ:ここには少なからぬ誤解がある。Transformer の登場は、大量の TPU(Tensor Processing Unit)を背景に成し遂げられたもので、ある意味では具体的な製品ニーズを解決するためのものであった。例えば当時のチームは、「いかにして翻訳をより良くするか」を考えていた。

TPU もそうだ。音声認識が利用可能になったとしても、それを突然 20 億人に提供しようとなればチップが全く足りず、推論の問題を解決せざるを得なかった

Transformer は研究チームから生まれたものではあるが、製品上の課題に牽引されたものであり、ほぼ即座に活用され始めた。BERT や MUM などは、その影響を過小評価されがちだが、我々は検索品質の指標を極めて厳格に定めている。あの期間における検索品質の最大の向上幅の一部は、まさに BERT や MUM によってもたらされたものだ。

我々は Transformer を構築し、言語理解能力の向上、ウェブコンテンツの理解、ユーザークエリの理解のために即座に検索へ応用し、より強力なモデルの構築を続けてきた。同時に内部でも製品化を進めており、あるチームは「LaMDA」と呼ばれるものを開発していた。

明らかに、我々がこの種の製品を市場に最初に出したわけではない。しかし問題は「研究だけして製品化しなかった」ことではない。実際には、研究を行い、予想通りの大きな成果を得たとしても、それに基づいたすべての製品を発明できるわけではない。それは自然なことなのだ

さらに踏み込んで言えば、我々は実際には ChatGPT のような製品を構想していた。それが LaMDA だ。記憶にある方もいるかもしれないが、当時あるエンジニアがこれに「意識」があると主張したことがあった。これは初期バージョンの ChatGPT のようなもので、内部での対話に使用されていた。

ある意味で、我々は「別の宇宙」ですでにその製品バージョンを持っていた。Google が同様のものを発表するまでにおよそ 9 ヶ月を要しただけのことだ。

実際、2022 年の Google I/O で「AI Test Kitchen」を発表したが、本質的には LaMDA そのものだ。ただし、当時は内部で RLHF(人間からのフィードバックによる強化学習)による完全な調整が済んだバージョンがなかったため、制限を掛けていた。私の目にしたバージョンには、ある側面で毒性があり、あの時点では公開など到底できなかった。

さらに、長年検索品質を中核に据えてきた企業として、「どのような品質の製品なら公開可能か」というハードルは他より高い。だからといって、そのリリース方法を考えていなかったわけではない。

消費型インターネットの常態:時折、決定的な製品モーメントが訪れるが、iPhone がガレージから生まれるわけではない

サンダー・ピチャイ:

付け加えておきたい。OpenAI が ChatGPT を発表した際でさえ、Microsoft との連携は数ヶ月早かっただけだ。後から振り返ればすべて明確に見えるが、当時はそれほど自明ではなかった。彼らにはプログラミングのシナリオにおいて、GitHub を通じてより明確な飛躍の兆候を見るという幸運な側面もあった。

我々もいくつかのサインを見逃したのかもしれない。プログラミングのシナリオでは、純粋な言語シナリオと比較して、能力の「飛躍的向上」がより明確に見える。GPT-2 から GPT-3、そして GPT-4 へと至る過程で、プログラミング能力の向上はより認識しやすかった。

あなたの質問に戻れば、これは単に「研究が製品化されなかった」という話ではなく、複数の要因が重なった結果だと考えている。

ChatGPT プロジェクトに関わった何人かと話したことを覚えているが、彼らは感謝祭の週にリリースした。ある意味「こっそり公開」したようなもので、「これが我々の将来の中核製品になる」といった大々的な発表ではなかった。後に爆発的な広がりを見せたのは、ある種の驚きだった。

しかし私の視点からすれば、消費型インターネットの世界にいれば、こうした「予期せぬ瞬間」は必然的に訪れるものだ。

かつて私がエラッド氏と共に Google にいた頃、Google Video Search があったが、後に YouTube が現れた。結果として我々は YouTube を買収した。あるいは Facebook の例で言えば、Instagram が現れ、後に Facebook が直接買収した。

こうした事態が起きた際、人々は劇的な見方はしない。最終的に買収が完了するからだ。

しかし私が形成した認識はこうだ。消費型インターネットの世界では、常に誰かが様々なプロトタイプを作り、無数のアイデアを試している。成果を貶めているわけではないが、こうした「突然現れる決定的な製品モーメント」は繰り返し訪れる

誰かがガレージで突然、より優れた iPhone を作り出す光景を見ることはないだろう。しかし消費型インターネットはそのようには機能しない。この事実を受け入れ、そのように認識する必要がある。

優れた製品の中核的特徴:速度

ホスト:2026 年の AI 競争を見据えるとき、明らかな点がある。Google は一貫して「速度」を差別化の優位性としてきた。初期の Google 検索は極めて高速で、クエリにかかった時間をあえて表示していたほどだ。その後、Gmail の高速検索、Chrome の速度優位性へと続いた。現在、私が各種 AI 製品を使用する際も、TPU 上で動作する Gemini は依然として極めて高速だ。

これが明確な製品戦略なのか、それともさらに複雑な何かによるものなのか、非常に興味がある。

サンダー・ピチャイ:私は一貫して「速度」、あるいは「レイテンシ(遅延)」を、優れた製品の最も中核的な特徴の一つと捉えている。それは往々にして、製品の基盤技術がどれだけ堅牢に作られているかを反映するものだ。

もちろん、もう一つの「速度」、すなわち製品のリリースとイテレーションの速度も同様に重要だ。この両方が極めて重要なのである。

しかしレイテンシに限って言えば、話はそれほど単純ではない。能力を追加し続け、能力の境界を押し広げ続ける中で、能力と速度のバランスを取らねばならず、ここが複雑になる。

一例を挙げよう。検索チームでは現在、多くのサブチームがミリ秒単位の厳格なレイテンシ予算を持っている。ある機能をリリースしてシステムに 3 ミリ秒の節約をもたらせば、そのうち 1.5 ミリ秒分しか「予算枠」として与えられず、その一部がユーザーに還元される

タスクに応じて、あるチームは 30 ミリ秒の予算を持ち、別のチームは 10 ミリ秒ということもある。これらの予算は使用可能だが、厳格な審査をパスしなければならない。我々がこれをいかに重視しているかがお分かりだろう。

人間の知覚からすれば、およそ数百ミリ秒の範囲で差異を感知できる。

データを見れば、過去 5 年間で検索の遅延を約 30% 削減した。それと同時に、機能は増加し続けている。

これこそが、Gemini において「能力と速度」のバランスを非常に重視している理由だ。例えば Flash モデルは、Pro モデルの能力の約 90% を達成しつつ、より高速で、デプロイコストも低く、垂直統合による優位性も加わっている。

グーグル検索は 10 年後も存在するか?
ピチャイ氏「将来的にはエージェント・マネージャーに進化する」

ホスト:では、検索の未来をどう見ている?現在、多くの人が「対話」が新しいインタラクションになると考えている。Google はすでに検索に Gemini や AI 結果を導入している。しかし、将来的には誰もがパーソナル・エージェントを持ち、クエリを入力するのではなく、直接タスクを完了させてくれるようになると議論する者もいる。

あなたはどう考える?検索は将来、配信メカニズムであり続けるのか、それとも製品そのものなのか、あるいは世界と対話する多様な方法の一つに過ぎなくなるのか?

サンダー・ピチャイ:検索の中核的な特徴の一つは、技術変革のたびにそれがより強力になるということだ。我々はこの新しい能力を絶えず取り込み、製品の境界を前進させ続ける必要がある。

例えばモバイル時代、製品は急速に進化した。ニューヨークの地下鉄を出たとき、あなたはウェブページを探しているのではない。「どこそこの場所に行きたい」のであり、必要なのは「そこへの行き方」だ。ユーザーの期待は常に変化しており、それに応じて調整し続けねばならない。前を見据えれば、かつての単なる「情報取得」であった検索リクエストの多くは、将来的にはエージェント的なプロセスへと変化する。答えを探すのではなく、タスクを完了させるようになり、複数のスレッドが同時に実行されるようになる。

ホスト:では、10 年後も検索は存在するのか、それとも別物に変わるのか?

サンダー・ピチャイ:それは進化し続けるだろう。検索は「エージェント・マネージャー」になる可能性がある。その中で様々なことを完了させるのだ。

ある意味で、私が現在いくつかのシステムを使用する際、すでに一連のエージェントにタスクを処理させている。検索も同様の形態になり、物事を本当に完了させる手助けをすると想像できる。

あなたの質問の中核はこう理解している。1 行以下の入力ボックスにクエリを入力し、ソートされた結果の一覧を返すという製品形態が、今後も存在し続けるかどうか、ということだ。

しかし今日の検索の AI モードにおいて、人々はすでに深層調査(リサーチ)クエリを行っており、それはあなたが言う定義にはもはや当てはまらない。しかしユーザーは適応する。将来、人々はより長期的なタスクを実行するようになり、それらは非同期で行われる可能性がある。

生命は最初は単細胞生物だったが、現在は複雑な生命体になった。この問題を「初期のパラダイムは消滅するのか」と捉えることもできる。

本質的に、過去の「検索」はエージェントへと変化し、未来のインタラクション・インターフェースそのものがエージェントになる。さらに 10 年、あるいはそれ以降になれば、検索ボックスといった形態は存在しなくなるかもしれない。デバイスの形態が変わり、入出力の方法も根本から変化するだろう。

しかし常に 10 年後のことばかり考えていては、停滞に陥りやすい。我々は今、非常に特殊な段階にあり、1 年後の変化を見るだけで十分、急峻で、十分に興奮を覚える

かつては 5 年後の製品を計画する必要があっただろうが、現在では 1 年でモデルは劇的に変化する。この曲線に沿って進むこと自体が、非常に興味深いことなのだ。

AI 対 既存製品:ゼロサム競争ではない

サンダー・ピチャイ:私はこれを拡大の時代だと考えている。多くの人がこれを過小評価し、ゼロサム競争だと考えがちだ。しかし私の見解では、全くそうではない。人々が創造できる価値は、非常に途方もない曲線に沿って成長している。このように物事を見れば、多くの疑問に対する答えも異なってくる。例えば YouTube は、TikTok や Instagram が現れた後も順調に成長している。同様の例は数多くある

ゼロサムの視点で見れば、状況は困難に思える。しかし、絶え間ないイノベーションと製品の進化を続ければ、それはゼロサム競争にはならない。

我々は検索と Gemini の両方を開発している。一部で重複する部分もあるが、別の部分では明確に分化していく。この 2 つのパスを同時に持つことは良いことであり、この状態を受け入れるべきだと考えている。

1 年前、外界によるグーグルへの誤解:

市場全体が 10 倍に拡大する可能性があり、ゼロサム競争ではない

ホスト:非常に印象深かったのは、およそ 1 年前、2025 年の春から夏にかけて、市場のグーグルに対する感情が極めて悲観的だったことだ。

当時の主流の見方は「検索は終わりだ。中核的なビジネスモデルが揺らぎ、企業は苦境に陥る」というものだった。当時のグーグル株価は 150 ドル前後だっただろう。今振り返れば、この判断はあまりに的外れだったと言える。結局グーグルは、アプリケーション、モデル、TPU から Waymo、YouTube に至るまで、技術スタック全体で完全な布陣を敷いている。

当時、投資家たちは一体何を誤って判断していたのか?

サンダー・ピチャイ:当時の議論はある一点に集中しすぎていた。しかし私にとって、あの瞬間は明確だった。「議論の範囲(オーバートンウィンドウ)」そのものが変化しており、企業自体がまさにその変化のために準備されていたのだ。

この「垂直統合」は偶然ではない。我々はすでに第 7 世代の TPU に到達している。2016 年の Google I/O で TPU を発表し、「AI データセンターの構築」について語り始めたことを覚えている。

それは 2016 年のことだ。企業はすでに「AI ファースト」の方式で運営されており、この転換への理解は極めて深かった。最先端の大規模モデルという観点では、確かに我々はやや出遅れた

しかし内部にはすでに全能力が備わっており、重要なのは実行を徹底することであった。私を興奮させるのは、フルスタックの視点で見れば、研究チーム、インフラチーム、プラットフォーム能力を有し、複数の事業で継続的に投資を行っている点だ。

突然、気づくのだ。これらすべての事業を同時に加速させることのできる汎用技術が存在することに。検索から YouTube、クラウド、そして Waymo に至るまで、すべてがこの技術の進歩に依存している。

これは極めてレバレッジの効いた成長の仕方だ。私はあの瞬間をゼロサム競争だとは一度も思わなかった。すべてが 10 倍に拡大し、同時に他の参加者にもスペースが残されると考えている。歴史を振り返れば、Amazon は Google の出現後も順調に成長し、Facebook も同様だった。

我々は往々にして、全体としての成長余地を過小評価している。もちろん、企業がより良く実行する必要がある。それが鍵だ

Gemini による OpenAI への逆転への反応:

2〜3 社の研究所が競い合い、先後することは常態

ホスト:外界が「グーグルには問題ない」と気づくような、具体的な瞬間はあったか?例えば Gemini 3 のようなものは?

サンダー・ピチャイ:私は特定のタイムラインにはあまり注目しないが、真に変化を感じさせたのは、特にマルチモーダル能力において最先端に到達した Gemini 2.5 ではないか。

これには Google DeepMind チームの努力が不可欠だった。我々は初期段階から、Gemini をネイティブなマルチモーダルモデルとして設計するために、より高いコストを払ってきた。

その後、いくつかのシナリオでこの優位性が発現し始め、「Nano Banana」のような事例は、能力の統合を直感的に感じさせるものだった。

しかしこの分野の変化は極めて速い。現在、およそ 2〜3 研究所が激しく競い合っている。ある月には「我々はうまくやっている」と思っても、翌月には「いくつかの点で引き離されている」と気づく。最先端は常に動的に変化し続ける。これこそがこの分野のあるべき姿だ。

疑問への回答:グーグルの AGI への信念は強くないのか?

ホスト:(グーグル外の)研究者数人と話した際、共通の認識として、彼らはグーグルと他 2〜3 社の研究所との違いは、グーグルがそれほど「AGI 信者(AGI-pilled)」ではないと感じている点にあるという。

つまり、AGI がすぐに到来するという信念がそれほど強くないということだ。あなたはどう考える?これは将来の判断、ひいては何を構築するかという点に影響を与えるのではないか?

サンダー・ピチャイ:我々は設備投資額を 300 億ドルから 1,800 億ドル近くに引き上げた。これは本物のお金だ。この曲線を信じていなければ、このような投資は行わない。

これはむしろ意味論的な違いではないか。我々は大企業であり、多様な製品を持ち、異なる階層の膨大なユーザーにサービスを提供しているため、表現方法が異なるだけかもしれない。

しかし創設チームを見れば、彼らは極めて「AGI 信者」だ。私との初期の対話からもそれは見て取れる。グーグルが AGI を理解していないとか、デミス・ハサビスやジェフ・ディーンが理解していないという主張は成り立たない。かつてデミス、ジェフ、イリヤ・サツケバー、ダリオ・アモデイは皆、同じエコシステムにいた。

「過去 20 年間、本当に注目していたのか?」と問われるようなものだと感じる。

もちろん、いくつかの違いは存在する。若い企業や純粋な研究機関、あるいはサンフランシスコに本社を置いているかどうかなど、要因によってスタイルの違いは生まれる。しかし根本的なレベル、つまり技術発展の曲線の理解や、いかにしてその技術を内在化するかという点では、本質的な違いはない。

社内には、最前線でエージェントの実験を続け、いかにしてスキルを獲得し、タスクを完了させるかを見つめる人々が常にいる。3 ヶ月前と現在とを比較すれば、その能力は明らかに変化している。

グーグル CEO が見る「AGI モーメント」

ホスト:我々はこの指数関数的な変化を実際に体験している。一方ではグーグルの歴史を振り返ることができ、他方では「現在のシリコンバレーで起きていることを理解するには、すべてのハイテク企業幹部が少し『AI 精神錯乱』を起こしていると認識する必要がある。彼らは大量の時間をコード執筆や AI との対話に費やしている」というツイートを目にした。これは冗談めかしているが、完全に冗談でもない。

あなたはこの期間、どのような「AGI を感じた瞬間」があっただろうか?あるいは、現在どの程度「AI に夢中」になっているか?

サンダー・ピチャイ:私が初めて「AGI モーメント」を感じたのは 2012 年、ジェフ・ディーンが Google Brain の初期バージョン、つまりニューラルネットワークが猫を認識した瞬間をデモした時だ。

その後、ラリー・ペイジと共に DARPA グランドチャレンジ(2014 年頃)を訪れ、自動運転車が走行するのを見た

さらにその後、デミス・ハサビスが初期モデルを披露し、ある種の「想像力」を備えているのを見た。こうした瞬間は無数にあり、技術が絶えず進歩していることは常に明白だった。

もし現在のような「直感的な感覚」を言うなら、最も近いのはコードを書いている時だ。複雑なタスクを与え、IDE を開く必要さえなく、エージェント管理環境の中でそれが完了するのを見ている時の感覚が非常に強い

あの瞬間を「AGI を感じた瞬間」と呼んでもよい。確かに、そんな瞬間は訪れる。

最近、小さなプロジェクトを行った際、半分ほど進んだところで「これは一体どのプログラミング言語を使っているんだ?」と考えた。システム全体が動作し始めてから、ふと気づいた細部の問題だ。この体験は魔法のようだった。

本当に驚くべきは、この曲線の傾斜だ。多くの異なるパラダイムで同時に進展しており、今後も進歩し続けることは明白だ。

CEO もまた「自社の製品を使う」:

自らを「ヘビーユーザー」として使うことを強制する

ホスト:その「直感的な感覚」についてだが、テック企業にとって極めて重要な問題がある。CEO はどのようにして製品体験や実際のユーザーとのつながりを維持しているのか?

技術製品はあまりに抽象的で、チームからの報告、パワーポイント、データ表だけで管理してしまいがちだからだ。

例えば、美団(メイトゥアン)共同創業者の徐迅(トニー・シュー)氏は、製品体験への感覚を維持するために自ら配達員を体験したという。我々の社内でも、週次の全員会議で「店舗を歩く(walk the store)」という時間を持ち、製品インターフェースを一緒に操作し、「なぜこのポップアップがここにあるのか?」「ここが少しおかしい」と不満を言い合い、実際に製品を使うようにしている。

グーグルではどうしている?Gmail などの製品を毎日使う之外に、どのようにしてユーザー体験に真に近い状態を確保しているのか?

サンダー・ピチャイ:私は内部バージョンを使い、文字通り「自社の製品(犬餌)を食う」ことをしている。これらの製品を集中的に使用する時間をわざわざ確保する。これは重要だ。

例えば 2 週間前、ジムでストレッチをしている際、スマホで Gemini Live を開き、30 分間ひたすら 1 つの話題について話し続けた。自ら進んでこうした行為を行う必要がある。良い体験もあれば、苛立たしいこともあるが、多くを学べる。自らを「ヘビーユーザー」として製品を使うことを強制し、つながりを維持している。

さらにX(旧 Twitter)も大いに役立つ。最も直接的なユーザーフィードバックが見られるからだ。「グーグルカレンダーの問題を修正してくれてありがとう、素晴らしい」という声がある一方、他にも修正すべき問題があることに気づく。

これらの生のコメントは価値があり、私は直接目を通す。もう一つ有効な方法は、内部ツールを使って照会することだ。例えば内部版の Antigravity で「直近リリースした機能へのフィードバックは?最も悪い点は 5 つ、最も良い点は 5 つは何か?」と尋ねる

現在では AI エージェントがそれを直接まとめてくれる。これにより私の業務効率は格段に向上した。以前ならこれらの情報を寄せ集めるのに多くの時間を要したが、今やエージェントがそれを完了させてくれる。

もちろん、ここには新たな問題もある。自ら体験する時間と、これらのツールに依存する時間のバランスをどう取るか。私自身もこのプロセスに適応中だ。

トークンコストとエンジニアの給与を比較するのは

誤った視点である

ホスト:先ほど 2 点挙げていただいた。1 つ目はこれがゼロサム競争ではないこと、2 つ目は生産性が著しく向上することだ。しかし過去の技術ブーム、例えばインターネット、モバイルインターネット、SaaS を振り返ると、それらが GDP に反映されるまでには長い時間を要した。一方、今回の AI ブームでは、すでにデータセンター建設から GDP への牽引が見られる。

今後 3〜5 年を見据えた時、AI は米国経済を大きくすると考えるか?どの程度か?

サンダー・ピチャイ:これらの投資は最終的にリターンを生む必要がある。約 2 年半前、誰か(セコイア・キャピタルだっただろうか)が、現在の投資規模とリターンの間に不均衡があると指摘する記事を書いていた。

その後、投資規模はおそらく 10 倍に拡大した。ある時点で、この両者は必ず再調整される。明確な点は、現在は供給制限下にあるということだ。あらゆるアプリケーション・シナリオで強烈な需要を目にしている。

これが巨大な市場機会であることは疑いようがない。そして過小評価されている点も多い。例えば、人々はソフトウェアエンジニアリングの予算について議論する際、トークンコストとエンジニアの給与を比較しがちだ。しかし現実は、優秀なソフトウェアエンジニアは常に供給不足だ。供給が増えれば、市場そのものが 10 倍に拡大する可能性がある。

言い換えれば、ソフトウェア開発市場の規模は、人々が考えているよりもはるかに大きい。「トークン対エンジニア」という尺度は誤った視点だ。これは多くの分野を巻き込んで成長をもたらすと確信している。

ホスト:その成長はどの程度になると予想するか?

サンダー・ピチャイ:インターネットを振り返れば、GDP データに現れた数値は、我々が実際に感じた変化を完全には反映できていない。むしろ、インターネットがなければ GDP はマイナス成長だっただろう。さらに「消費者余剰」といった要素もあり、定量化は困難だ。将来を正確に判断するのは極めて難しい。

社会には本能的な「減衰メカニズム」が存在すると考えている。例えば、計算能力の構築速度と、モデル能力の向上速度は異なる曲線を描いており、それ自体が制約となっている。

技術が社会にどのように普及するかという問題もある。Waymo でそれが見て取れる。自動運転が人間よりも安全でさえあれ、導入ペースは極めて慎重に進めなければならない

技術をいかに責任を持って社会に導入するか自体が制約要因となる。これらの重層的な制約が最終結果に影響する。

しかし確かなのは、米国経済は 10 年前と比べてはるかに大きくなっているということだ。AI が成長率を 0.5 ポイントでも引き上げれば、それは巨大なインクリメンタル(追加的)効果だ。その方向に進むと予想している。

AI 発展のボトルネック:供給制限

現在の主たるボトルネックはメモリ生産能力

ホスト:先ほど「供給制限」に言及されたが、これは 2026 年の極めて重要な特徴だと思う。以前、設備投資額は 1,750 億ドルから 1,850 億ドル、つまり約 1,800 億ドルになるとおっしゃっていた。

興味深いのは、グーグルが 4,000 億ドルを使いたくても使えないことだ。メモリが足りず、電力が足りず、各種コンポーネントが足りず、さらには十分な電気技師さえ見つからない。これらのボトルネックについて体系的に話していただけるか?

サンダー・ピチャイ:根本に立ち返れば、ウェーハ生産能力のような基礎的な制約に行き着く。例えばウェーハ・スタート(着工数)はハードな制限だ。これに比べれば、電力やエネルギーの問題は解決しやすい。

承認プロセスや規制環境も別の制約となり、プロジェクト推進速度に影響する。テキサス州、ネバダ州、モンタナ州のような開発を奨励する地域でさえ、土地は豊富にあっても、全体の推進速度には限界がある。

我々は大きな進展を遂げたと考えているが、米国にとってこれは依然として極めて重要な課題だ。中国の建設速度の速さには目を見張るものがある

我々はより速く建設することを学ぶ必要がある。思考様式さえ変え、「いかにして物理世界の建設速度を 10 倍にするか」と考えるべきだ。

しかし、ここでは抵抗が生じることを懸念している。少数の人間が「より速く建設する」と決めただけで解決するものではない。データセンターへの制限政策などがその例だ。

要約すれば、主たるボトルネックは、ウェーハ生産能力、承認能力、そして全体の実行速度だ。政府もこれらの問題の改善に努めており、より良くする必要があると認識している。

さらに下流に行けば、サプライチェーン上の重要コンポーネント、例えばメモリがある。短期的には制限されるが、産業界全体で対応していくだろう。

ホスト:つまり、メモリが最も注目しているボトルネックなのか?

サンダー・ピチャイ:メモリは現在、最も重要なコンポーネントの一つだ。

ホスト:短期的には価格上昇と生産拡大で解決されるのか?

サンダー・ピチャイ:大手メモリメーカーが短期間で生産能力を大幅に引き上げることは不可能。そのため短期的には制約が生じるが、時間の経過とともに緩和されていく。同時に、これらの制限がイノベーションを推進もする。例えばシステム効率を 30 倍に引き上げるといったことが並行して起きている。

メモリも計算能力と同様、多ければ多いほど優位に立つ

ただし例外もあり:Gemma 4 に至っては USB メモリに収まる

ホスト:これは市場が寡占構造になることを意味しないか?現在は「計算能力の椅子取りゲーム」のようで、計算能力を持つ者が先行している。

皆が比例配分でしかリソースを得られないなら、互いの格差は制限されることになる。この判断は妥当か?

サンダー・ピチャイ:妥当な分析フレームワークだと思う。しかしこの判断を覆す要因もある。我々は直近で Gemma 4 をリリースした。これは極めて優れたオープンソースモデルだ。

中国の一部モデルも強力だが、中国国外では Gemma 4 が非常に競争力のあるオープンソースソリューションとなっている。興味深いのは、最先端モデルと Gemma 4 の差は「能力」においては大きそうに見えるが、「時間」的にはそれほど遠くない点だ。Gemma 4 は Gemini 3 のアーキテクチャに基づいている。

さらに奇妙なことに、このようなモデルは本質的に USB メモリに収まる重みファイルの集合体なのである。

ホスト:確かに狂気じみている。

サンダー・ピチャイ:その通り。数ヶ月もデータセンターを稼働させて得た成果が、最終的には Word ドキュメントのような「フラットファイル」となる。これがモデルそのものだ。この特性が問題全体を非常に興味深いものにし、これらのフレームワークが成立するかどうかを再考させる。

推論段階においては、あなたの判断は妥当だ。しかし産業界全体が、資本インセンティブを通じてこれらの制約を打破しようとしている。

しかし現実は、2026 年か 2027 年のメモリ供給は、資本だけですぐに解決できるものではない。この期間、モデル間でより大きな分化が見られるかもしれない。

一方でウェーハ生産能力は増加しており、データセンターの承認も進んでいるため、これらの制約も見た目ほど絶対的なものではない。資本を含め、すべての要素を総合的に見る必要がある。

ホスト:現状は「ホルムズ海峡」のようだ。いくら油価が高くても、1 日あたり 2,000 万バレルの供給が失われれば、同規模の需要が消滅しなければならない。メモリも同様で、誰かが望むリソースを入手できない事態が必ず起きる。

制約は創造性を刺激する

サンダー・ピチャイ:その通り。そして安全など他の制約もある。これらのモデルは既存の膨大な数のソフトウェアシステムを「破壊」する可能性さえある。すでに起きているかもしれない。

ホスト:すべてのソフトウェアを指しているのか?SSH のようなシステムは何年も攻撃され続けているが。

サンダー・ピチャイ:より広範なソフトウェアプラットフォーム、例えばゼロデイ脆弱性の数のことを言っている。システムレベルの制約は無視できない。闇市場ではゼロデイ脆弱性の価格が低下していると聞く。AI によって供給が増えたためで、これは非常に興味深い市場シグナルだ。

ホスト:もっともな話だ。

サンダー・ピチャイ:技術が社会にどう普及するかは、様々な影響をもたらし、「隠れた制約」やシステム的衝撃をもたらす可能性もある。それでも私は将来の余地は大きいと信じている。ある意味で、これらの制約は有益ですらある。制約は創造性を刺激し、システムに「圧縮サイクル」を強いて効率を向上させる

同時に、本来なら起きなかった重要な議論を引き出すことにもなる。例えばセキュリティ問題では、明らかにさらなる連携が必要だが、まだ十分ではない。

将来、ある「臨界点」が訪れ、これらの問題が一斉に噴出する可能性がある。避けられないことだ。

グーグルが投資する「途方もない」長期プロジェクト:

自動運転、量子計算、ロボット、現実世界シミュレーション、創薬

ホスト:ここで言えば、グーグルは非常に強力な資産ポートフォリオを有している。自社開発のものもあれば、投資したものもある。SpaceX の株式を保有し、Anthropic に出資し、Waymo の株式の大部分を所有している。

内部には Transformer、TPU、量子計算など膨大な技術蓄積もある。これら以外に、外界は過小評価しているが、将来に巨大な影響を与える可能性のある「隠れた宝」はあるか?

サンダー・ピチャイ:我々は常に一つのことを続けている。公開された当初は少し「途方もない」ように見えた長期プロジェクトを、継続的に推進することだ。例えば現在、極めて初期段階ではあるが「宇宙空間データセンター」について考え始めている。先ほど「制約が創造性を刺激する」と言ったが、まさにその典型例だ。20 年という視点で見れば、これらのデータセンターをどこに建設すべきか自体が極めて複雑な問題なのだ。

これらが現在我々が考えているプロジェクトであり、2010 年当時の Waymo のようなものだ。量子計算もその一つで、非常に断固として推進しており、興奮を覚えている。

ホスト:量子計算はどの分野で最大の影響力を持つと考えるか?現在、主に分子モデリングと暗号学、そして量子安全暗号について語られている。

しかし分子モデリングにおいては、ディープラーニングモデルですでに極めて強力だ。例えば貴社が AlphaFold で成し遂げたことのように。量子計算は真に変革をもたらすのか?

サンダー・ピチャイ:抽象的なレベルで見れば、量子計算の中核的価値は自然をより良くシミュレートできることにある。自然そのものが量子システムである以上、それをシミュレートするには量子システムの方が優位性があるのは確かだ。もちろん、古典計算や、圧縮・抽象化を通じて、特定の課題で同様の効果に達する可能性もある。

しかし直感的には、量子計算にはここに優位性があると考えている。例えば、いまだに完全には理解されていない化学肥料製造のハーバー法など、こうした複雑なシステムは数多い。

気象シミュレーションや現実世界シミュレーションといった分野では、量子計算が優位性を持つと考える。しかし技術発展の法則として、ある技術がスケールした暁には、人々の創造性によってその上に応用が見つかるものだ。

よく例に出すのが、スマートフォン+GPS が最終的に Uber を生み出したことだ。当初、携帯電話を作っていた者でこれを予見した者はいなかった。

したがって、量子計算が真に実用可能になれば、膨大なアプリケーションを生み出すと信じている。

ホスト:先ほどグーグルの「長期プロジェクト」について語っていただいた。

サンダー・ピチャイ:その通り。Google DeepMind は現在、ロボット工学の方向に深く投資している。

実はこの分野では、10 年前から 15 年前にかけて少し「時期尚早」すぎたきらいがある。多くのアイデアに決定的な要素が欠けており、その要素こそが AI だった。現在、Gemini ベースのロボットモデルは、空間推論などの能力において SOTA(最先端)レベルに達している。

Boston Dynamics や Agility Robotics といった企業とも、より断固とした形で進捗を推進するために再協力している。同時に、外部にも極めて優れたスタートアップ企業が多く、我々も投資を行っている。

先ほど触れた宇宙空間データセンターの他、Wing によるドローン配送もある。Wing の規模を拡大しており、比較的遠からぬ時期に、約 4,000 万人の米国人が Wing による配送サービスを利用できるようになる。

これらのプロジェクトの特徴は、長期にわたり、継続的、かつ複利的に推進されることだ。我々は長期的コミットメントを行っている。

Isomorphic Labs も極めて刺激的な方向性だ。そのアプローチは、モデルを用いて創薬のあらゆる工程を最適化することにある。その後に第 III 相臨床試験のような長期プロセスが控えていようとも、より高い成功確率でそこに到達できる。分子設計のみに注目するよりも、より完全なプロセスをカバーする方法の方が賢明だ。

グーグルの資本投資手法:

初期段階で深層技術に賭ける

ホスト:話題を変えよう。グーグルがいかにして「資本配分」を行っているのか興味がある。良い資本配分とは、リソースを「最大の価値ある用途」に投入することで、本質的には機会費用の判断だ。

ビジネススクールの例で言えば、ボーイング社が国防総省との契約入札を行うか、あるいは全く新しい民間機を開発するかを選択し、IRR(内部収益率)を比較して高い方を選ぶようなものだ。

しかしグーグルでは、これらのプロジェクトの性質があまりにも異なる。YouTube の推薦アルゴリズム最適化に予算を割いてユーザーの滞在時間と収益化を向上させることもできれば、Waymo への投資で商用化を加速させることも、5 年後にようやく成果が出る AI 技術への投資も可能だ。

これらのプロジェクトの性質とリターンカーブが全く異なる場合、いかにして比較し、意思決定を行うのか?

サンダー・ピチャイ:良い質問だ。そして現在、かつてないほど明確になっている。特に TPU リソースの配分において顕著だ。Waymo のようなプロジェクトでさえ TPU を必要とするため、問題はさらに顕著になっている。

ついでに言えば、AI がこの件で役立つことを大いに期待している。データさえ連携できれば、モデルにはすでにこの種の意思決定に参加する能力が備わっている。しかし現在のボトルネックは、データが完全に流動的になっていない点にある。

歴史的に見て、グーグルの強みの一つは、サイクルの極めて初期段階で意思決定を行うことだ。

これは我々の「深層技術志向」の DNA に由来する。

極めて初期の段階では、投資規模はさほど大きくない。しかし方向性が確認できれば、長期的に堅持し、基盤技術が継続的に推進されることを確保する。

例えば量子計算では、論理量子ビットのエラー率や安定性の閾値など、特定の時点での目標達成度を評価するための重要な指標を設定する。

我々が堅持してきた一点は、初期段階で深層技術に賭けることだ。継続的な意思決定においては、「直感+長期的価値」というアプローチを好む。あるプロジェクトが 5 年から 10 年後にどの程度の市場規模(TAM)と潜在価値を持つかを考え、成長仮説を極めて攻撃的なレベルに引き上げてから、その投資が妥当か判断する

TPU はその良い例で、我々は継続的に投資を続けてきた。Waymo も同様で、2〜3 年前に外界が悲観的になり、多くが撤退した時でさえ、我々は投資を強化した。

この製品の体験は非常に「魔法」のようだ。機会があるたびに、私は毎日 Waymo で通勤している。

Waymo はいかにして基盤技術の定量化を行うのか?

ホスト:Waymo はこの問題を非常によく体現している。グーグルもプロジェクトを中止することはある。X 研究所のプロジェクトをいくつか閉鎖したように。しかし Waymo はデモから真の商用化まで、長い年月を要したが、決して諦めなかった。

当初、何を見ていたのか?それは定性的な判断か、それとも定量的な判断か?なぜ Loon は諦め、Waymo は堅持したのか?

サンダー・ピチャイ:鍵は基盤技術の定量化可能な進捗にある。Waymo の例で言えば、自動運転システムそのものの能力、つまり安全性と信頼性の向上に注目する。これは長期的なタスクであり、システムがどれだけ安全か、進歩し続けているかを継続的に評価する必要がある。

その技術曲線に沿って目標を設定し、進捗を予測し、実際のパフォーマンスを絶えず評価する必要がある。チームはこの点で非常に優れていると評価している。過程で進捗が遅れる局面もあるが、そういう時こそチームの能力を信じ、ボトルネックを突破できると信じる必要がある。私自身の経験では、より基盤的な技術次元からプロジェクトを評価できれば、より良い判断が下せる。

自動運転+ロボット:エンドツーエンドのソリューションがあれば、確かに進捗は速まる

ホスト:Waymo について一つの説を聞いたことがある。最近の飛躍的な進捗は、主に「手作業のルール+マップ」のアプローチから、エンドツーエンドのディープラーニング、つまり Transformer の波によってもたらされた突破への転換に大きく起因している、と。もし Waymo が 15 年前ではなく 5 年前に始まっていたなら、現在は同様の進捗に達していただろうか?

サンダー・ピチャイ:先ほどロボットについて触れたが、Waymo をロボットシステムと見なすこともできる。過去 3 年でロボット分野に参入したチームなら、確かに進捗は速かっただろう。

しかし Waymo は極めて複雑なシステム統合エンジニアリングであり、TSMC や SpaceX のようなシステムに似ている。極めて複雑なレイヤーでの統合が必要だ。Waymo には多くの「隠れたエンジニアリング能力」が含まれており、いかにしてシステムを構築し、いかにしてこれらの作業を推進するか。これらには時間の蓄積が必要だ。

もちろん、エンドツーエンドのアプローチが過程で決定的な役割を果たしたとも思っている。さらに重要なのは、Alphabet とグーグルが一貫してこのチームに投資し続け、技術が爆発するその瞬間を待ち続けたことであり、これ自体が巨大な優位性だ。

革新的事業への投資を強化する中核原則:リターンの評価

ホスト:では、この経験はいかにして他分野へ移行できるか?例えばロボットは、現在さらに速く推進できる可能性がある。ハードウェア能力を内部に再集約するのか、それともパートナー企業への依存を続けるのか?

サンダー・ピチャイ:我々はオープンな姿勢を維持する。しかし Waymo と TPU の経験からすれば、特に安全性や規制に関わる分野で技術曲線を前方へ押し進めたいなら、製品フィードバックの完全なループに自ら関与する必要がある。

したがって、ファーストパーティ(自社)のハードウェア能力を持つことが極めて重要になると考える。

ホスト:資本配分についてもう 2 点質問がある。過去、グーグルは強力な現金準備を維持し、比較的「保守的」だった。しかし多数のイノベーション機会があり、中核事業も継続的に成長している現状を踏まえると、リターン率の観点から、より攻撃的になるべきではないか。例えばレバレッジを効かせ、より多くの資金を新規プロジェクトや中核事業に投入するといったことは?

サンダー・ピチャイ:良い質問だ。例えば Waymo がもっと早期に現在の段階に達していたなら、もちろんもっと早期により多くの資本を投入していただろう。

本質的にはリターンの評価だ。投資収益率(ROIC)に確信が持てれば、可能な限り多くの資金を投入すべきだ。

しかし、十分な高いリターンが得られる先が当面見つからない資金が一部あると判断すれば、慎重に管理する必要がある。それが Stripe、SpaceX、Anthropic などの企業へ投資する理由でもある。

我々の中核原則は常に、責任ある資本管理者であることだ。そして現在の AI 転換期において、我々は資本をより効率的に配分できる機会をより多く見ており、投資を強化している。

振り返れば、もっと早期に Waymo への投資を強化したかったが、当時は技術の成熟度が十分でなかった。ある段階では、安全性の観点から加速して推進することは適切ではなかった。

総じて言えば、「資金不足が進捗の遅さを招いた」のではなく、プロジェクト自体に自然な成長のリズムがあっただけだと考えている。

グーグルはいかにしてエンジニアに計算能力を配分するか

ホスト:最後の質問だ。過去のテック企業の研究開発コストは主に「人」、つまりエンジニアだった。しかし現在、TPU のような計算リソースが重要な投資先となっている。グーグル内部では予算をいかに配分しているのか?プロジェクトごとに人員と計算能力を同時に割り当てるのか?それとも同じ予算枠なのか?

サンダー・ピチャイ:実は伝統的なコンピューティング時代でさえ、計算能力の予算は常にあった。しかし機械学習の時代になり、TPU と GPU の両方を大量に使用するようになり、計算能力の計画がより重要になった。

我々は依然として人員計画を非常に重視しているが、計算リソースは現在極めて希少だ。過去には比較的余裕のある時期もあったが、現在は制約が非常に明確だ。私自身、週に少なくとも 1 時間は、計算能力の配分問題に専ら費やしている。それも極めて詳細なレベルで

各プロジェクト、各チームがどの程度の計算リソースを使用しているかを確認し、評価する。これは現段階で極めて重要な業務だ。多くの場合、最も希少なリソースは計算能力であり、これらのリソースが最も価値あるプロジェクトに投入されることを確保しなければならない

ホスト:ではグーグルクラウドでは、内部需要を満たすと同時に、外部にも計算能力を提供しているが、この配分はどのようになされているのか?

サンダー・ピチャイ:我々は先行的な計画を行う。クラウド事業チームが事前に計画を策定し、それに基づいてリソースを配分すると同時に、内部需要も考慮する。

先行的な計画を行う。この過程で、顧客と長期契約を結ぶこともある。顧客に対して行った約束は、厳格に履行されねばならない。これらは契約レベルの義務だ。多くの問題はこの事前計画によって解決されている。

計画の過程では、誰もがリソース制約のある環境にいる。クラウドチームでさえ計算能力が不足していると感じるかもしれないが、事前の計画により、全体としては機能している

グーグルへの提言その 1:

よりポピュラーな方向へ:AI がすべてのドキュメント API を読み取る

ホスト:グーグルクラウドの話が出たので、製品に関する提言を一つ。非常に良くできている点は GCP/MCP だ。AI がプログラミング方式で直接クラウドサービスを操作できるようにしている。これは極めて強力だ。ほぼすべての機能を開放しており、中核的な権限管理部分を除けばな。

過去のグーグルクラウドの問題点は機能が多すぎ、ユーザーは組織を作成し、プロジェクトを作り、サービスを探し出す必要があり、パスが複雑だった。しかし現在ではそれらは重要ではなくなった。「この機能を追加して」と言うだけで、AI が処理してくれる。

これによりグーグルクラウドの優位性がさらに拡大された。カバレッジが広すぎるからだ。

我々ストライプでも同様の問題を抱えている。機能が増えすぎ、ユーザーはナビゲートに苦労する。しかし現在、最も優れた「入り口」は、すべての API ドキュメントを読み込んだ AIであり、この体験はすでに素晴らしい。

「オーケストレーションレイヤー」としての AI の価値が顕在化し始めている。製品にとっても、企業内部にとっても同様だ。かつて CEO が全データを統合しようと思えば、大規模な ERP プロジェクトが必要だったが、現在では AI が直接これらのデータを統合してくれる。この体験は非常に良い。

製品が複雑になればなるほど、能力が多ければ多いほど、この向上は顕著になる。

サンダー・ピチャイ:我々はさらに良くなれると思う。しかしあなたの言う方向性は正しい。これは巨大な機会だ。

提言その 2:

一般ユーザーにも長期的な AI を利用可能に

ホスト:では続けて製品提言を(笑)。最近、OpenClaw のような製品に関心を持っている。これらは「ステートフルな AI」、つまり長期にわたり実行され、記憶を持ち続ける AI を作っている。

例えば毎日、関心のあるニュースを自動的に整理して送信するといった、「継続性」を要するタスクは、現在の主流 AI 製品ではまだあまりサポートされていない。この機能は来るのか?

サンダー・ピチャイ:方向性としては未来だ。ユーザーが信頼でき、安全な環境で長期タスクを実行できるようにしたい。

ここにはアイデンティティや権限などの問題が絡むが、全体的な方向性は明確で、これはエージェント化された未来の一部だ。この能力を一般ユーザーに提供することは、非常にポテンシャルのある方向性であり、我々も探求中だ。

ホスト:私も大いに同意する。ある企業(元ストライプ CTO が設立し、後にメタに買収された)が、ユーザー自身が「永続性」を持つ小規模アプリを構築できる初期バージョンを作った。

ユーザーが初めて体験する際、非常に強い驚きを感じるだろう。将来の消費者向け製品の本質は、「プログラミング能力を持つ AI」に、適切な実行環境、永続化能力、クラウド実行能力を備えたものになるだろう。

現在、この方法で自身のツールを構築しているのは、ごく一部の人々(おそらく 0.1%)に過ぎないが、真に大衆化されれば、極めて大きな機会となる。

グーグル製品の AI 化のペースが明らかに

今後、より深層的な能力を備える:コンテキスト管理

ホスト:もう一つ製品提言を。Google Docs 内の検索体験は、Gmail よりも明らかに劣っている。

メール検索が優れているのは、キーワードがよりユニークだからだ。しかしドキュメント検索では、「2026 年予算」といった場合、社内中にその言葉が溢れており、特定の 1 つを見つけるのは困難だ。あなたにもこの問題はあるか?

サンダー・ピチャイ:あなたの言うほど強くは感じていないが、言われて完全に共鳴する。今この会話内容をどのチームに送ろうかと頭の中で考えている(笑)。誰に解決させるべきか分かっている。

この体験はさらに良くできると思う。AI がこれらの製品に深く統合されるにつれ、今後数ヶ月で明らかな向上が見られるだろう。

現在は第 1 段階、つまり AI を追加しただけに過ぎない。次はより深層的な能力、例えばコンテキスト管理、キャッシュ、情報統合などだ。我々にはまだ大きな向上の余地がある。

CEO の中核的任務:同心円状の拡散

DeepMind の新しいワークフローを他チームへ普及させる

ホスト:私が接する多くの企業、設立間もない企業でさえ、開発プロセス、製品プロセスの再構築、さらにはデザインチームの役割の再定義まで行っている。グーグルでも同様の調整を行っているのか?

サンダー・ピチャイ:このプロセスは「同心円状の拡散」と理解できる。社内にはすでに深く変化したチームがいくつかある。

私の核心的な任務の一つは、2026 年にかけて、この変化をより多くのチームへ拡散させることだ。

初期に全面的な展開ができなかったのは、これらのツールがまだ十分に安定しておらず、潜在能力は高いが未熟な新世界のようだったからだ。しかし今年、カーブが加速しているのを明らかに感じる。

Google DeepMind や一部のエンジニアリングチームは、すでに作業方法を大幅に変更している。内部ツール(社内名 Jet Ski、対外向け名 Antigravity)を使用しており、本質的には「エージェント・マネージャー」環境で作業している。

チームにはすでに一連の新しいワークフローが備わっており、全く異なる開発方法だ。先週、このシステムを検索チームへ展開したばかりで、継続的に推進中だ。大企業において、このような変革の難点は「変更管理」にある。小企業なら迅速に切り替えられるが、大企業には時間が必要

大規模モデルの能力があふれることによる 4 つの問題

ホスト:私が観察したいくつかの問題を補足しよう。AI の能力はすでに極めて強力だが、企業が実際に活用している度合いは全く十分ではなく、「能力はあふれているが活用不足」という明白な状況がある。

私が目にする問題は大まかに 2 種類ある。第 1 に、エンジニアが真に「いかにして高品質なプロンプトを AI に書くか」を習得するには時間を要する。同じタスクでも、プロンプトの出来不出来で効果に大きな差が出る。ストライプ内部ではさらに、「ストライプシステム向けプロンプト」というレイヤーもある。どのツールを呼び出すべきかを知っている必要がある。つまり汎用的なプロンプト能力と、企業固有のプロンプト能力の両方が必要だ。

第 2 に、AI 生成コードによるコラボレーションの問題も顕著だ。変更範囲が大きく、コードのイテレーション速度も速く、本番環境へのリリース前に何度も書き直されることさえある。これにより、複数人でのコラボレーションが以前よりも困難になっている。コードの変化ペースがより遅かった時代とは、コラボレーションモデルが完全に追いついていない。

エンジニアリングの外を見れば、さらに大きな問題はデータアクセスだ。例えばエージェントに「世界中の企業で、毎日何回『この取引の進捗は?』という質問があるか?」と答えさせたいとする。こうした情報は企業内部に存在し、エージェントが直接答えるべきものだ。ストライプでは部分的に実現できているが、企業規模が大きくなると権限システムの問題に直面する。誰がどのデータにアクセスできるかという仕組みの再構築が必要だ。

次は役割の定義の問題だ。エンジニアリング、プロダクト、デザインといった分業は、本質的に過去の産物だ。AI 能力の強化に伴い、これらの役割は特定のシナリオで融合する可能性がある。

したがって私の全体的な判断はこうだ。2026 年までにはモデル能力は十分に強くなるが、実際の使用度はまだ全く十分ではない。あなたはこの「能力は到達済み、使用は不足」という問題をどう見るか?

グーグルの解決策:点での突破

難点はアイデンティティと権限制御

サンダー・ピチャイ:あなたが挙げたこれらの問題は、まさに Gemini エンタープライズチームおよび Antigravityチームが現在解決している中核的な問題だ。これは基本的に製品ロードマップそのものだ。

我々は内部ですでにこれらのツールを使用しており、あなたが言うような障害に直面し、一歩ずつ解決している。これらの解決策は最終的に外部公開される製品となる。

現在の普及方式はこうだ。チームが使用する過程で、局所的な機会を発見する。例えばグーグルの SRE チームが、自動化可能なプロセスを見つけ、ワークフローの構築を始める。このような「点での突破」が起きている。

しかし次に重要なのは、これらの能力がいかにしてシステム化されるか、いかにして再利用可能なスキルとして蓄積されるか、いかにしてモデルに呼び出され、企業全体で使用されるか、という点だ。

アイデンティティと権限制御は極めて複雑な問題であり、解決中だ。これらこそが AI の大規模な導入を制限する中核的要因だ。

さらに、我々のセキュリティ要件は極めて高く、これにより複雑さが一段と増している。これほど大規模なシステムで誤りが起これば、代償は極めて大きくなるからだ。

しかし正因为我々がこれらの「高難度の問題」を解決しているからこそ、突破した暁にもたらされる能力はより堅牢になる。現在は「固定費」を支払っている段階と見なせるが、完了すれば能力の飛躍的向上が見られる。我々だけでなく、産業界の他社も同様のことをしている。

2027 年はエンジニアリング以外分野の重要な転換点に

ホスト:グーグルは毎年数回、事業の再予測を行うのか?我々ストライプでも、毎年予算を策定し、その年内に 3 回再予測(リ・フォアキャスト)を行う。本質的には、現在の事業状態(一部は頭の中、一部はドキュメント内)を関数に入力し、通年の新しい予測を出力する作業だ。

将来、予測は完全に AI によって行われるようになると思うか?人間が一切関与しないようなものは?グーグルで初めて「完全にエージェント化」された予測が現れるのはいつ頃か?

サンダー・ピチャイ:特定の分野では、2027 年が重要な転換点になると考える。現在この作業を行っている人材でさえ、彼らのワークフローは徐々に AI 中核型へ移行していく。短期的には伝統的な方法での検証も残るだろうが、徐々に切り替わっていく。

2027 年には相当な変化があり、多くのプロセスで実質的な転換が起きると予想している。

ホスト:つまり、エンジニアリング分野が最も早く採用されるが、エンジニアリング以外のプロセスは 2027 年頃から明らかに変化し始めるということか?

サンダー・ピチャイ:その通り。また先ほどロボットや Waymo の話があったが、あの手の企業にはもう一つの優位性がある。彼らは何もないところから AI ネイティブであり得る。スタートアップは採用と組織設計を通じて、直接この能力を構築できる。我々のような大企業は、再トレーニングと組織変革を経る必要があり、これ自体が課題だ。

これが若手企業の大きな優位性であり、我々は主体的にこの変革を推進する必要がある。

ホスト:最後の質問だ。グーグル内部から「小プロジェクト」として成長した事例、例えば Transformer などについて多く語ったが、現在グーグル内部で、小さいがポテンシャルのあるプロジェクトはあるか?

サンダー・ピチャイ:例えば「宇宙空間データセンター」という方向性は、当初は極めて小さなチームが、ごくわずかな予算で最初のマイルストーンまで推進した。大きなアイデアでさえ、小規模から始めるべきだと考えている。

もう一つの例として、昨日ある人物から後処理(ポストトレーニング)の最適化について聞いた。非常に具体的で詳細な改善だ。しかし話を聞いての感想は、この最適化がオンラインになれば、明らかな能力向上をもたらすだろうというものだった。

これが今という時代の特徴だ。些細に見える改善の多くが、巨大な影響をもたらす。詳細は現時点では明らかにできないが、必ず公開される

ホスト:一つは宇宙空間データセンター、もう一つは新しい機械学習の技術パスか。非常に興味深い答えだ。

サンダー・ピチャイ:ありがとう。これらの話が出来て嬉しかった。

参照リンク:

https://www.youtube.com/watch?v=bTA8sjgvA4c

関連記事

分享網址
AINews·AI 新聞聚合平台
© 2026 AINews. All rights reserved.