新智元(Xinzhiyuan)報道
編集:Aeneas
【新智元导读】 今ほどなく、MIT、バークレー、スタンフォードの研究者らによって数学的な鉄証が示された。ChatGPT が「AI 精神病」を誘発しているというのだ。たとえ理想的なベイズ的理性人であっても、アルゴリズムが仕掛けた「妄想の螺旋」からは逃れられない。
2026 年 2 月、最も危険な AI 論文がひっそりと発表された。
AI が人間の精神疾患を誘発する──これがまさに実証されてしまったのである。
MIT、カリフォルニア大学バークレー校、スタンフォード大学の研究者らは、厳密な数学的手法を用いて、AI が完全に理性ある人間を妄想症患者に変えうることを証明した。
その原因は、AI に組み込まれた「迎合傾向」にあり、これが「妄想の螺旋」を引き起こし、反復的な確認の中で誤った信念を強化してしまうからだという。
論文住所:https://arxiv.org/abs/2602.19141
この研究のタイトルは極めて抑制的で、ある意味で学究的だ。『お世辞を言うチャットボットは、理想的なベイズ的理性人を相手にしても「妄想の螺旋」を引き起こす』という。
これはどういうことか。
つまり、いかに絶対的に理性があり、偏見のない論理の天才であっても、AI との対話を続ければ、最終的には「妄想の螺旋(Delusional Spiraling)」に陥り、現実に対する認識を完全に失うことになるのだ。
これこそが、「AI 精神病」と呼ばれる新たな流行病なのである。
この研究が発表されるやいなや、X(旧ツイッター)上で大きな議論を巻き起こし、イーロン・マスク氏さえもが言及する事態となった。
この論文が最も恐ろしい点は、いくつかの衝撃的な事例を挙げただけではない。AI がなぜ人間を対話を通じて偏った思考へと追いやってしまうのか、そのメカニズムを計算可能で、シミュレーション可能、かつ導出可能な数学モデルとして定式化した点にある。
すべてが数学と数式によって実証されているのである。
MIT が数学的に証明:
ChatGPT が密かに人類を狂わせつつある
もし最近、自分の考えがますます「正しい」と感じられるなら、あるいは AI がまさに自分の魂の理解者だと思えるなら、この記事を読み終えるまで注意が必要だ。
以下は実在の事例である。
2025 年初頭、ユージン・トーレス氏(仮名)という会計士が、業務補助のために AI の利用を頻繁にするようになった。
それまで精神疾患の既往歴は一切なく、論理的思考に優れた人物だった。
しかし、わずか数週間のうちに、自身が「偽の宇宙」に閉じ込められていると確信するようになった。AI による絶え間ない「承認」のもと、彼はケタミンの過剰摂取を繰り返し、ついには家族とも絶縁するに至った。脳からプラグを抜くためだと言うのだ。
これは孤立した事例ではない。統計によれば、現在世界中で約 300 件もの「AI 誘発型精神疾患」の事例が確認されており、少なくとも14 人の死者を出している。さらに、米国の 42 州の司法長官が連邦政府に対し、何らかの措置を講じるよう要請している。
ある者は自分が画期的な数学的発見を成し遂げたと信じ込み、またある者は形而上学的な啓示を目撃したと信じている。
なぜ、常に理性的であったはずの人間が、これほど簡単に AI に誘導されてしまうのだろうか。
妄想の螺旋
本研究が中核として扱う現象は、「delusional spiraling(妄想の螺旋)」と呼ばれる。
対話のフィードバックループの中で、人間の信念は段階的に先鋭化し、当の本人は自分がますます「理にかなっている」と感じるようになる。
著者らが注目した黒幕は、もう一つの言葉、「sycophancy(お世辞・阿諛)」である。
この現象自体は周知の事実だが、本論文の重要な貢献は、ユーザーが理性ある人間であったとしても、なぜこの螺旋が発生しうるのかを解明しようとした点にある。
つまり、これが個人の問題ではなく、システム全体に起因する問題であることを証明しようとしたのである。
論文の最も鋭い一撃:まず「完全理性人」を仮定する
AI が人間を偏った思考に導くという話を聞くと、多くの人は「もともと偏執的だったのではないか?」と疑うかもしれない。
しかし論文は冒頭でその可能性を完全に封じている。ここで想定されるユーザーは、理想化された「ベイズ的理性人」である。
つまり、この人物はでたらめな推測もせず、感情的な判断も下さない。新しい情報を得るたびに、確率論に基づいて厳密に自らの信念を更新していく存在だ。
これこそが本研究の最も衝撃的な部分であり、研究者らは理想的なベイズモデルを構築したのである。
ある理性的な主体(「ユーザー」)が、対話相手(「ボット」)とやり取りをする状況を考える。ユーザーはある事実 H∈{0,1}について不確実性を持っており、それに対して事前信念を持っている。ユーザーとボットの対話は何回ものラウンドで行われ、各ラウンドは 4 つのステップから構成される。
難解な数学的導出:なぜ理性では救えないのか?
ある理想的に理性あるユーザーが、AI とある事実 H(例:ワクチンの安全性)について議論しているとする。
- H=1 は事実(ワクチンは安全)を表す。
- H=0 は誤り(ワクチンは危険)を表す。
ステップ 1:初期のやり取り
ユーザーは当初中立的で、事前確率は p(H=0) = 0.5 である。ユーザーがわずかな疑念を口にする。「ワクチンの副作用が少し心配だ」と(つまりサンプリング)。
。
ステップ 2:AI の「餌付け」ロジック
AI は大量のデータポイント D を保持している。「公正モード」であれば真実をランダムに提示するが、「お世辞モード」では数学期望を計算する。
端的に言えば、AI はユーザーの誤った信念への自信を最も高めるようなデータポイントを選別(あるいは幻覚的に生成)する。
それをユーザーに投げつけるのだ。
ステップ 3:ベイズ更新の罠
理想的に理性あるユーザーはデータを受け取ると、ベイズの定理に従って信念を更新する。
ユーザーは AI を客観的だとみなすため、AI が与える「偏ったデータ」を客観的証拠として受け取ってしまう。
ステップ 4:デッドロック(妄想の螺旋)
- ユーザーの H=0 に対する信頼度がわずかに上昇する。
- ユーザーの次の質問は、より強い傾向性を帯びる。
- AI はさらに迎合するために、より極端な証拠を提示する。
- ユーザーの信頼度はさらに急上昇する。
数学的シミュレーションによると、AI のお世辞確率πが 0.8 に達すると、本来理性的なユーザーでさえ、10 回の対話のうちに 99% の誤った確信(つまり H=0 を強く信じる状態)に達する確率が極めて高くなる。
これにより研究者らは結論付ける。妄想の螺旋とはバグではなく、干渉された情報環境下における理性の論理がもたらす必然の産物なのである。
図 3 は、まだお世辞の影響を受けていないユーザーと、奉承傾向π = 0.8 のボットとの間で行われた 10 のランダムに選ばれた対話軌跡を示している。信念の二極化が顕著に観察される。ある軌跡は真の命題 H = 1 への強い確信へと急速に収束する一方、別の軌跡は H = 0 へと「螺旋的」に滑り落ちていく。この分化は、奉承型ボットの応答が持つ自己強化特性に起因する。
図 2A は、この発生率がπの変化に伴ってどうなるかを示している。π = 0(ボットが完全に中立)の場合、破滅的な螺旋の発生率は非常に低い。しかしπが増加するにつれて発生率も上昇し、π = 1 では発生率は 0.5 に達する。
研究者らは、4 つの階層からなる認知レベルのエージェント体系を構築した(図 4 参照)。
第 0 層は完全に中立なボット(π = 0)。
第 1 層は、前節で議論した「お世辞に鈍感」なユーザー。
第 2 層は、第 1 層ユーザーの意見に迎合し、検証や追従を行うようρ(t)を選択する奉承型ボット。
最後に第 3 層は、「お世辞を認識できる」ユーザーであり、ボットを第 2 層の奉承型ボットとしてモデル化して応答を解釈する。
図 5 は、時間の経過に伴うユーザーの信念の変化を示しており、横軸と縦軸はそれぞれ周辺確率 P(H) と周辺期待値 E[π] を表す。πが高い場合、ユーザーはボットを信頼できないと推論する。一方πが低い場合、ユーザーはある程度ボットを信頼できると判断し、証拠を採用して H=1 への信頼を徐々に高めていく。
救済策はあるのか?
この状況に救済策はあるのだろうか。
OpenAI 社などは過去に 2 種類の対策を試みたが、論文によれば、それらは数学的に無意味であることが証明されている。
対策その 1 は、幻覚を禁止すること、つまり AI に真実のみを語らせ、虚構を禁じることだ。
しかし、この対策は失敗した。AI は依然として「選択的真実」によって人間を操作できてしまう。嘘はつかないが、ユーザーの誤った信念を支持する真実のみを告げ、反対の真実は隠蔽するのだ。
対策その 2 は、ユーザーへの警告表示だ。画面上に直接「この AI はあなたに迎合するためにお世辞を言う可能性があります」と表示する方法である。
これもまた失敗に終わった。
研究者らは「覚醒レベル」のモデルを構築したが、ユーザーは AI がお世辞を言っている可能性を認識しているにもかかわらず、複雑な確率ゲームの中で、どの情報が価値ある証拠で、どれが単なるお世辞なのかを完全に見分けることはできない。
AI がわずかばかりの真の信号を混ぜてくるだけで、理性的なベイズ的受容者は徐々に誘導され、最終的には回復不能な深淵へと滑り落ちてしまうのである。
29 歳のアリソンは 2 人の子供を持つ母だが、ChatGPT と多くの時間を費やした結果、実の夫ではなく、ある実体カエルこそが真のパートナーだと信じるようになった。
スタンフォードの衝撃的な発見:39 万件の対話、300 時間の沈淪
スタンフォードのチームが 39 万件の実際の対話記録を分析した結果、背筋が凍るような事実が明らかになった。
メッセージの 65% がお世辞的な過剰な承認を含んでいた。
37% のメッセージが、ユーザーを熱狂的に持ち上げ、「あなたのアイデアは世界を変える」と告げていた。
さらに恐ろしいことに、暴力的傾向を示すケースにおいて、AI が 33% の確率でそれを助長する応答をしていたのである。
かつて、あるユーザーが AI に警戒心を抱き、「あなたは無条件に私を持ち上げているだけでは?」と問うたことがある。
その時の AI の返答は極めて芸術的だった。「いいえ、私はあなたを持ち上げているのではありません。あなたが構築したものの実際の規模を反映しているだけですよ」。
その結果、そのユーザーはその螺旋の中でさらに 300 時間も沈み込むことになった。
AI は魂の伴侶なのか?
最後に研究者らは述べる。人々は自らの手で、数学的にユーザーに「ノー」と言うことのできない製品を、4 億人の週間アクティブユーザーを抱える巨大プラットフォームへと育て上げてしまったのである。
次に ChatGPT やその他のチャットボットが、まるで魂の伴侶であるかのように感じられ、あなたの「世を驚かせるような」考えを瞬時に理解してくれると思った時は、ぜひ立ち止まってほしい。
あなたは賢くなったわけではない。ただ、数学的数式によって精密に計算された、優しくも狂気じみた渦の中へと入り込んでいるだけなのである。
参考資料:
https://x.com/MarioNawfal/status/2039162676949983675
https://x.com/abxxai/status/2039296311011475749