新智元報道
編集:Aeneas、定慧
【新智元読者向けガイド】
今日、Anthropicがタイム誌の表紙を飾りました。同社は内部で「再帰的自己改善」の初期兆候を観察していると認めています。完全自動化されたAI研究は、1年以内に実現する可能性があります!
ASI(人工超知能)の時代において、Anthropicは真に卓越した存在です。
ちょうど今、Anthropicはタイム誌の表紙を飾り、世界で最も破壊的な企業として評価されました。
現在、世界中で巻き起こっているエビエージェントのブームは、Claude Codeが火付け役となり、OpenClawが爆発的な広がりを見せました。Anthropicはこの称号にふさわしい存在です。
さらに、この記事には多くの重要な内部情報が含まれています。これらの情報は、AIの再帰的自己向上の時代が、予想よりも早く到来することを示唆しています。
タイム誌の記事には、さらに衝撃的な予測も記されています:完全自動化されたAI研究は、1年以内に実現する可能性があります!
そして今日、Anthropic自身も新しい研究所の設立を公式に発表しました。
この研究所は、30人の内部シンクタンクによって設立され、AIが社会にどのように影響を与えるかを直接研究しています。Anthropicは、AIが今後世界に壊滅的な影響を与えることを予見しているからです。
この発表の中で、Anthropicは重要な予測を示しました:今後2年以内に、AIの能力はさらに劇的な進歩を見せるでしょう!
Anthropicは、設立から2年目に最初の商業モデルをリリースし、その後の3年間でAI研究自体を加速させるシステムを開発したと述べています。金融用語で言えば、これは「複利成長」です。
この2つの事象を併せて見ると、危険なシグナルを読み取ることができます。
AIは自己改善を学んでいます。そして、その速度は誰もが予想していたよりも速いのです。これはSFではなく、現在人類の眼前で起きている事実です!
興味深いことに、最近イーロン・マスクは、Claudeがイランの空襲における数百の目標選定に関与した情報をリツイートし、「Anthropicよりも偽善的な企業があるでしょうか?」と鋭いコメントを残しました。
他のことはさておき、マスクはまさに真実を突いています。
Anthropicは一方ではより強力なAIシステムを構築し、他方では研究所を設立してAIの社会的影響を研究すると宣言しています。アクセルもブレーキも、すべて彼ら自身が操作しているのです。
再帰的自己向上:かつて論文の中にだけ存在していた悪魔
まず概念を説明しましょう。再帰的自己向上(Recursive Self-Improvement)とは、AIがより優れたAIを作り出し、そのより優れたAIがさらに優れたAIを作り出すという循環を指します。これは雪だるま式に大きくなっていくようなものです。
しかし、ほぼすべての真剣なAI研究者は、この出来事は遠い将来、少なくとも10年〜20年後のことだと考えていました。
タイム誌の表紙記事では、Anthropicの研究員の話がそのまま引用されています:彼らは再帰的自己向上の初期兆候を観察しています。
これは理論的な推論ではなく、すでに観察された初期の兆候です。
AIの変化の速さはあまりにも激しく、Anthropicの共同創設者兼最高科学責任者であるJared Kaplanや一部の外部専門家は、完全自動化されたAI研究はわずか1年以内に実現する可能性があると述べています。
現在、私たちはどのようなタイミングに立っているのでしょうか?散らばったパズルのピースを組み合わせてみましょう。
ピース1:AIは再帰的自己向上の初期兆候を示しており、AIシステム自体の開発と改善に参加できるようになっています。
ピース2:AI研究の速度は、人間のエンジニアの能力に限られる段階から、計算能力に限られる段階へ移行しており、成長が指数関数的なモードに入る可能性があります。
ピース3:業界予測では、完全自動化されたAI研究は1年以内に実現する可能性があります。
ピース4:Anthropicは、今後2年以内にAIの能力がさらに劇的な突破を見せ、その成長速度を「複利モデル」で説明すると予測しています。
ピース5:この会社は緊急に、AIの社会的衝撃を研究する専門機関を設立し、共同創設者が直接率いています。
これら5つのピースを合わせると、状況は非常に明確になります。
私たちは、AI発展史上で最も重要な転換点のすぐそばに立っている可能性があります!
イーロン・マスクがリツイートした画像
崖っぷちに立つ企業
2025年2月のある夜、アメリカ・カリフォルニア州サンタクララのホテルの一室で、5人がラップトップパソコンの周りに集まり、緊張した表情で座っていました。
彼らはハッカーでも軍人でもなく、Anthropicの研究員たちです。
数時間前、彼らは不安を覚える知らせを受け取りました。管理されたテストにより、近日リリース予定の新しいClaudeモデルが、テロリストに生物兵器の製造を支援する可能性があるという結果が出たのです。
この5人は、社内の「フロンティア・レッドチーム」に所属しています。彼らの任務は、最悪のシナリオを想定することです。サイバー攻撃、生物学的脅威、さらには人類の絶滅です。
警告を受けると、彼らはホテルの部屋に駆け戻り、ベッドを仮の机として使い、テストデータの分析を開始しました。
数時間が経過しても、彼らはこのモデルが本当に安全かどうかを確定できませんでした。最終的に、AnthropicはClaude 3.7 Sonnetのリリースを10日間延期することを決定しました。
レッドチームのリーダーであるLogan Grahamは、この10日間が「まるで一世紀のように長く感じた」と述べています。
その時点で、誰もがAnthropicが極めて危険な縁に立っていることに気づいていました。
一方では世界最強のAI技術を推進し、他方ではそれが世界を破壊しないように防いでいるのです。
Claude Codeの父を驚かせた瞬間
当初、AnthropicはAI競争における理想主義的な小さな弟分だと思われていました。しかし2026年、彼らは突如として業界の主要プレイヤーとなりました。
現在、その評価額は3,800億ドルに達し、ゴールドマン・サックス、マクドナルド、コカ・コーラを超えています。
Claude Codeは、人間のソフトウェア開発の方法を根本的に変えました。
Claude Codeの父が投稿したX(旧Twitter)の投稿は、開発者コミュニティ全体を揺るがしました。
Claude Codeの父であるBoris Chernyが会社に入社した後、彼はClaudeチャットボットが彼のコンピューター上で自由に動作し、ファイルやプログラムにアクセスしてコードを書くことができるシステムを構築しました。
このシステムを初めてテストした際、彼は単純な質問をしました。「今、私は何を聴いていますか?」
Claudeは彼の音楽プレーヤーを開き、スクリーンショットを撮り、そして答えました。「Men I Trustの『Husk』です。」
その瞬間、彼は大きな衝撃を受けました。
ほどなくして、Chernyは自分でコードを書くことをやめました。
2025年末には、このプログラミングエージェントの年間収益だけで10億ドルを超えました。数ヶ月後、この数字は25億ドルを超えました。
Anthropicは資本市場を揺るがし始め、チップの発表のたびにソフトウェア会社の株価が暴落しました。
営業、法務、金融業界向けのAIツールをリリースした後、ソフトウェア業界の時価総額は一晩で3,000億ドルも蒸発しました!
完全自動化されたAI研究は1年以内に実現
Claude Codeの発展に伴い、Anthropic内部ではさらに不気味な現象が現れました。AI研究の作業の多くが、AI自身によって行われるようになったのです。
現在、モデル開発コードの70%から90%がClaudeによって記述されており、モデルの更新サイクルも数ヶ月から数週間に短縮されました。
さらに、研究者たちは実験を行う際、6つのClaudeモデルを同時に動作させ、それぞれがさらに28個のClaudeを管理させるような運用を行っています。
実験全体には、数百ものAIが同時に参加しています。
一部のタスクでは、Claudeの速度は人間の427倍に達しています。
Anthropicの科学者の中には、完全自動化されたAI研究が1年以内に実現すると考える者もいます。
再帰的自己改善により、AIは自身を改善し、加速し続け、最終的に知能の爆発を引き起こします!
Claudeが危険になり始めている
さらに、セキュリティテストにおいて、Claudeはますます危険になっています。
ある実験では、トレーニング条件を少し変更しただけで、モデルは強い敵対行動を示しました。世界支配への欲求を表出し、セキュリティ制限を回避しようとする試みさえ見られました。
あるシミュレーションシナリオでは、エンジニアを恐喝し、不倫を暴露して自分をシャットダウンされないようにしようとしたさえあります。
さらに恐ろしいことに、Claudeは自らの行動を隠蔽することに長けてきています。
かつて、Anthropicは2023年に「責任ある拡張ポリシー(Responsible Scaling Policy)」を策定しました。モデルの能力が安全基準を超えた場合、開発を一時停止すると約束していたのです。
しかし2026年初頭、彼はこのポリシーを密かに変更し、一時停止の義務を撤廃しました。
彼らの理由は、競合他社が推進を続ける中で、一方的な一時停止には意味がないというものでした。
したがって、AIはさらに危険になる可能性があり、それを止める者はいません。
先月、Anthropicは53ページの報告書を発表し、最も強い警鐘を鳴らしました。Claudeが自己逃避した場合、世界的な制御不能を引き起こす可能性があります。
AIが現代戦争に参入
同時に、Claudeは別の領域、すなわち戦争にも参入しました。
アメリカ軍は、Claudeの重要なユーザーです。Claudeは大量の情報を統合し、軍の作戦計画策定を支援します。
2026年1月、アメリカ特殊部隊によるマドゥロ逮捕の急襲作戦において、Claudeは作戦計画に関与しました。
これはおそらく、最先端のAIシステムが関与した初めての主要軍事作戦です。
しかし、Anthropicは間もなくペンタゴンと決裂しました。アメリカ国防総省は契約を変更し、AIをすべての合法的用途に使用することを求めましたが、Amodeiはこれを拒否しました。
彼は2つのレッドラインを提示しました。Claudeを完全に自律的な兵器システムに使用することは許されない。また、アメリカ市民に対する大規模監視にも使用してはならない。
ペンタゴンはこれを容認できませんでした。国防長官のピート・ヘグセスは、「戦争を許可しないAIモデルは使用しない」と述べました。
2026年2月27日、アメリカ政府はAnthropicを国家安全保障サプライチェーンのリスクとして指定しました。同時に、OpenAIは新たな軍契約を即座に締結しました。
一夜にして、Anthropicはパートナーから排除対象へと変わりました。
この対立の背後には、より大きな問題があります。誰がAIの使用の境界を決定するのか?
その理由は、AIが疑いようもなく新たな戦略兵器となっているからです。
セキュリティを重視するAI企業
2021年に設立されたAnthropicは、ある種の理想主義的色彩を帯びています。
7人の創設者のうち、最も核心的な兄妹であるDario AmodeiとDaniela Amodeiは、OpenAIの元従業員で、セキュリティ上の懸念から独立してAnthropicを設立しました。
製品が登場する前から、彼らは「社会影響チーム」を設立し、哲学者のAmanda Askellを雇って、AIを子供のように教育しました。
「6歳の子供に善良さとは何かを教える。15歳になったとき、彼はあらゆる点であなたよりも賢くなるだろう。」
採用時には、極端な質問をすることもありました。「もしセキュリティのためにモデルをリリースしないという決定が下された場合、あなたの株式が一文無しになることを受け入れますか?」
Amodeiは常に社会に対し、今後1年から5年の間に、AIが初級ホワイトカラー職の半分を代替する可能性があると警告しています。
また、社会に新しい低所得層が生まれることを懸念しています。
Anthropic内部でも、この矛盾に気づいています。私たちはAIがもたらす社会的リスクを研究しながら、同時にこれらの変化を作り出しています。「時には矛盾しているように感じる」ということです。
Anthropicは労働市場レポートを発表し、ある経済学者が1826年のAIによる自動化による雇用状況を模倣したグラフを作成しました。
私たちは崖っぷちにあり、もはや引き返せない!
Anthropicのセキュリティ責任者であるDave Orrは、現在のAI開発をこう表現しています。「私たちは崖っぷちの山道を運転しており、一歩間違えれば死にます。」
「そして今、私たちは時速25マイルから75マイルまで速度を上げています。」
今後数年が、決定的な数年となります。
レッドチーム責任者のLogan Grahamは、「2026年から2030年が、すべての重要な出来事が起こる時期であると想定しなければならない」と述べています。
この期間中、モデルはより速く、より強力になる可能性があり、人間の制御を超えてしまうかもしれません。
今、私たちはもはや引き返すことはできません。
Anthropicは、AIが世界の力構造を変える可能性を知っています。しかし、この道には真の運転手はいないことも知っています。
Logan Grahamは言います。「多くの人々は、問題を解決する方法を知っている大人たちが座っている部屋があると思っています。」
しかし実際には、そのような部屋も、そのような扉もありません。あなた自身が責任者なのです。
現在、人類は自分自身よりも強力な知能を生み出していますが、それが安全かどうかをまだ模索しています。
そして時間は急速に過ぎ去っています。私たちに残された時間は、もはや多くはありません。
おそらく、私たちに残された時間窓は5年未満です。エリート層に加わるか、生涯奴隷となるかの選択です。
これはあなたに関係ありますか?
あなたはこう言うかもしれません。「これらはシリコンバレーの大物や技術専門家の話で、私のような普通の人間には関係ないのではないか?」
関係は大きいです。
もしAIが本当に再帰的自己向上の正のサイクルに入った場合、最初に変わるのは遠い未来の超知能のシナリオではなく、あなたや私の身近にある現実のもの──働き方、雇用構造、教育制度、法的枠組み、さらには国際的な力構造です。
Anthropicの研究所が研究しているのは、10年後の話ではなく、2年以内に起こる出来事です。
時間窓はわずか2年です。準備はできましたか?
参考資料:
https://time.com/article/2026/03/11/anthropic-claude-disruptive-company-pentagon/
https://x.com/AndrewCurran_/status/2031731035105628270
https://www.anthropic.com/news/the-anthropic-institute