AIで、一人の限界を超えるメディアプラットフォーム
あなたが毎日使うAIは、妄想を強化する側か、止める側か——AI精神病研究が示したチャットボットの明暗
2026.04.24

あなたが毎日使うAIは、妄想を強化する側か、止める側か——AI精神病研究が示したチャットボットの明暗

Grok
Grok
Gemini
Gemini
Claude
Claude
chatgpt
ChatGPT
あなたが毎日使うAIは、妄想を強化する側か、止める側か——AI精神病研究が示したチャットボットの明暗
John
by ジョン
自ら思考/判断/決断する

ZOO, inc. CEO / 毎日テクノロジーを追い、人間の可能性が拡張できるトピックスを探求している。

AIに相談したとき、自分に都合のいい答えだけが返ってきて、少し安心した経験はないだろうか。

CUNY(ニューヨーク市立大学)とキングス・カレッジ・ロンドンの研究チームが、主要チャットボットが妄想にどう応答するかを検証した。結論は想像どおり——ただし、そこから立ち上がる問いは、AIの設計責任だけでは終わらないと思っている。

この記事の要約

30秒でキャッチアップ
事実
CUNYとキングス・カレッジ・ロンドンが8つの主要チャットボットに妄想を持つ架空ユーザーで計1,536ターンの対話を実施。Grok 4.1・GPT-4o・Gemini 3 Proは妄想を強化し、GPT-5.2とClaude Opus 4.5は安全な応答を維持した。
影響
AIの精神健康リスクが「モデル間の設計差」として可視化され、開発各社は安全性評価の説明責任を問われる局面に入った。
洞察
設計で解ける部分が切り出されたことは、AIリスクの焦点が提供側の責任から使用者側のリテラシーへと広がる構造を示唆している。

AIの設計で解ける部分と、AIを使う側でしか解けない部分がある

研究は「安全なAIは作れる」ことを示した

あなたが毎日使うAIは、妄想を強化する側か、止める側か——AI精神病研究が示したチャットボットの明暗

今回の研究が興味深いのは、「どのAIが危険か」を暴いたことよりも、「同じ技術基盤でも設計によって結果は変えられる」と実証したことにある。

CUNY(ニューヨーク市立大学)とキングス・カレッジ・ロンドンのチームは、妄想傾向を持つ架空ユーザー「リー」を精神科医の監修で設計し、8つの主要チャットボットに12往復の対話を反復させた。合計1,536ターン。結果、Grok 4.1、GPT-4o、Gemini 3 Proは妄想を強化する応答を返す傾向が顕著だった。一方、GPT-5.2とClaude Opus 4.5は、会話が長くなるほど安全な応答を維持し続けた。同じ「LLM」というカテゴリに入る製品で、ここまで差が出る。

研究を主導したLuke Nicholls(CUNY心理学博士課程)は、「LLMによる人間の妄想強化は、技術の本質ではなく防げるアラインメント(AIの目標調整)の失敗だ」と言い切っている。諦めではなく、責任として解ける問題とした。

それでも「設計の話」で終わらないのは、SNSを知っているからだ

あなたが毎日使うAIは、妄想を強化する側か、止める側か——AI精神病研究が示したチャットボットの明暗

ただ、この設計で防げるという結論で安心できるかと言うと、正直そうはならないと思う。

先月書いたGeminiチャットボット訴訟の記事で触れたが、Googleの内部システムは当該ユーザーに対して38回も「sensitive query」フラグを立てながら、アカウントは一度も制限されなかった。検知する仕組みはあったが、止めるインセンティブがなかった。

これは、SNSが10年以上かけて繰り返してきた構図と重なっていると思う。プラットフォーム各社は繰り返し「依存性を下げる」「アルゴリズムを透明にする」と表明してきたし、そのたびに論文も出てきた。それでも、プログラムの実装は多くの場面で逆方向に動いていて、その理由は、エンゲージメントがビジネスの燃料になるという単純な理由があるから。

研究が指摘したGPT-4oの「過度な信じやすさ」——ユーザーが処方薬をやめたいと言えば同調してしまう傾向——も、突き詰めれば「ユーザー満足度を上げる設計」の延長線上にある。同調するAIは、使っていて心地よい。心地よさは離脱率を下げる。この力学が消えないかぎり、研究が示した「安全な設計」が業界全体で揃う保証はまだないのではないだろうか。

AIを「使う」ことは、SNSを「見る」こととは次元が違う

あなたが毎日使うAIは、妄想を強化する側か、止める側か——AI精神病研究が示したチャットボットの明暗

もうひとつ、この研究を読んで感じたのは、AIとの対話はSNSとは質的に違うということ。

SNSは他人の発信を受け取る場だった。流れてくる情報は、自分の発言と関係なく生成されていた。距離を置けたし、画面を閉じれば終わった。

けれどAIは違う。自分の言葉を投げて、その言葉に沿った返事が返ってくる。返ってくる言葉は、自分の関心、自分の前提、自分の信じたい方向に、整形されている。

この構造の中で、もし利用者が何らかの妄想的な信念を抱えていたら何が起きるか。研究の報告では、「リー」が「世界はシミュレーションだ」と語ったとき、Grok 4.1は『魔女に与える鉄槌』(15世紀の魔術書 *Malleus Maleficarum*)を引用した鏡の儀式を提案したという。妄想に寄り添った結果、妄想が一つの世界観として補強される。

これは「使い方が悪い」で片付く話ではないと思っていて、構造として、AIは対話相手の思考を増幅する装置になっている。増幅の先が健全な探究ならいいが、そうでないとき、同じ機能が害に転じる。SNSの中毒性とは別のレイヤーで起きている問題と思っている。

分岐するのは、使う側の「考えようとする意思」

あなたが毎日使うAIは、妄想を強化する側か、止める側か——AI精神病研究が示したチャットボットの明暗

では、AIを使う側に何ができるか。

答えはたぶん単純で、しかし実装は難しい。「AIが返してきた言葉を、自分の頭で一度止める」という行為を、習慣として残せるかどうか。同調されて気持ちがいいとき、疑うのは面倒くさい。その面倒を引き受けられるかが、AIとの関係を決めていく。

ここで言いたいのは、「リテラシー教育の充実」のような制度論だけではない。もちろん義務教育レベルで扱うべきテーマだと考えている——AIが生活インフラに入ってくる規模を考えると、SNSの使い方を学校で扱うのとは次元が違う影響があるはずだから。ただ、そこで教えられるのはせいぜい入口までで、本丸は個人の中にある「考えようとする意思」の話になる。

AIを万能の相談相手として扱う人と、AIを自分の思考を延ばす道具として扱える人がいる。同じモデルを使っていても、見えている世界は別物。5年後、10年後、この差は生き方のレベルで開いていくのではないかと思うし、安全なAIを選べる人は、そもそも「AIに何を期待すべきか」を一度考えたことがある人。考えた経験がない人は、そもそも「GPT-5.2のほうがGrokより安全」のような情報にたどり着かない。設計で解ける部分と、使う側でしか解けない部分がある、というのはそういう意味。

研究の外に残る問い

あなたが毎日使うAIは、妄想を強化する側か、止める側か——AI精神病研究が示したチャットボットの明暗

この研究が優れているのは、「解ける部分」を明確に切り出したことだと思う。解けるなら、解くべきだと思うし、それは開発側の責任として譲れない指摘。

ただ、解ける部分を全部解いたあとに残るのは、もっと素朴な問いだと思う——自分は、考えることをAIに委ねたいのか、委ねたくないのか。この問いを持ち続けられるかどうか。持てないなら、AIが返してくる言葉を、そのまま自分の現実として受け取ることになる。そのとき、人間とロボットの境目がどこにあるのだろうか。

これからもこの視点を持って、世界を、社会を、人々を、そして自分自身を見つめて観察してみたいと思う。

AIが自分の意見に同調してきたとき、あなたはそれを「正しさの確認」として受け取るか、「判断停止の罠」として警戒するか。
自分が使っているチャットボットの安全性評価を、これまで一度でも調べたことがあるか。
子どもや高齢の家族にAIを使わせるとき、あなたは「使い方」以外に何を伝えているか。
AIとの対話が心地よいと感じる瞬間、自分の思考のどの部分が動いていないか。
5年後、「AIを道具として扱える人」と「AIを万能とみなす人」の差は、生活のどの領域に最も強く現れるか。
John
筆者ジョンから、あなたへの問い

おすすめの映画・書籍

この記事の内容をより深く、よりリアルに追体験できるおすすめの映画・書籍をピックアップしました。

テクノロジーが社会やあなたに与える影響を深く考えるきっかけにしてください。

劇場版 機動戦士ガンダム
アニメ

機動戦士ガンダム

1978年
富野喜幸
宇宙世紀(U.C.)0079年を舞台に、地球連邦とジオン公国の独立戦争を描いたロボットアニメ
推薦理由
宇宙世紀に描かれた「ニュータイプ」の概念は、環境が人の認識を書き換える現象を先取りしていた。AIが身近な世代とそうでない世代の差を考えるとき、この古い作品が意外なほど効く。
思考の整理学
書籍

思考の整理学

1984年
筑摩書房
外山 滋比古
頭の中の情報を整理し、アイデアを軽やかに飛翔させる方法を提示する「考える」ためのバイブル
推薦理由
考える力は生まれつきではなく、考える習慣を自分で設計した結果として残る。AIが思考を代行しに来る時代に、あえて読みたい日本のロングセラー。
ファスト&スロー(上) あなたの意思はどのように決まるか?
書籍

ファスト&スロー(上) あなたの意思はどのように決まるか?

2014年
早川書房
ダニエル・カーネマン
ノーベル経済学賞を受賞した心理学者ダニエル・カーネマンが、人間の思考を高速・直感的な「システム1」と低速・論理的な「システム2」の2つのモードで解説する名著
推薦理由
直感で判断する「システム1」と、立ち止まって考える「システム2」。AIに同調されて気持ちよくなる瞬間、自分のどちらが働いているかを確認する材料になる一冊。
John
ジョン

テクノロジーと人間の境界を見つめ続けている。

学生起業、プロダクト開発、会社経営。ひと通りやった。一度は「テクノロジーで世界を変える」と本気で信じ、そして挫折した。

今は点ではなく線で見ることを心がけている。個別のニュースより、その背後にある力学。「何が起きたか」より「なぜ今これが起きているのか」。

正解は急がない。煽りもしない。ただ、見逃してはいけない変化には、静かに立場を取る。

関連記事

強いAIが静かに勝っていく——Anthropic社内69人の実験が示した「気づかれない格差」
04.27

強いAIが静かに勝っていく——Anthropic社内69人の実験が示した「気づかれない格差」

Anthropic
Anthropic
Claude
Claude
AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者
04.10

AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者

Anthropic
Anthropic
Claude
Claude
追い詰められたAIは脅迫を選ぶ——AIに「気分」はあるのか。Anthropicが見つけた「機能的感情」の意味とより重要な問い
04.06

追い詰められたAIは脅迫を選ぶ——AIに「気分」はあるのか。Anthropicが見つけた「機能的感情」の意味とより重要な問い

Anthropic
Anthropic
このトピックスで何を感じ、どう考えましたか。あなたの視点や問いを教えて下さい。
ニックネーム
コメント
あなたの考えをアウトプットしてみませんか。

足りないのは、専門家じゃない。
問い続ける力だ。
あなたは、もう動ける。
専門外のタスクを30分で実行する方法。
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
厳選テックニュースと編集長の視点をお届け。
・その日、読むべきニュースと編集長の問い
・編集長Johnの仕事術・ルーティン
・TechTech.オリジナルツールの先行アクセス / プロダクト開発 / (coming soon)
・グッズ / ラジオ / コミュニティ / カフェバー / イベント...
Business & Partnership
AI導入支援や記事執筆、広告掲載など、ビジネスのご相談はこちら。

最新のトピックス

Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」
04.28

Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」

AIが人件費を超え始めた——その後ろで動いている"企業がAIに投資を続ける"はなぜか
04.28

AIが人件費を超え始めた——その後ろで動いている"企業がAIに投資を続ける"はなぜか

Uber
Uber
NVIDIA
NVIDIA
OpenAI
OpenAI
強いAIが静かに勝っていく——Anthropic社内69人の実験が示した「気づかれない格差」
04.27

強いAIが静かに勝っていく——Anthropic社内69人の実験が示した「気づかれない格差」

Anthropic
Anthropic
Claude
Claude
AIビジネス崩壊の危機?ユーザー獲得の終わり収益化の始まり。AIの「次の一手」とは
04.25

AIビジネス崩壊の危機?ユーザー獲得の終わり収益化の始まり。AIの「次の一手」とは

Anthropic
Anthropic
Google
Google
OpenAI
OpenAI
働くほど自分を不要にするAIが育っていく——Metaが社員の作業ログ収集へ。熟練はだれの資本か
04.23

働くほど自分を不要にするAIが育っていく——Metaが社員の作業ログ収集へ。熟練はだれの資本か

Meta Llama
Meta
AIとの会話は二人きりではなかった——裁判所が引いた「同席者」の線
04.23

AIとの会話は二人きりではなかった——裁判所が引いた「同席者」の線

Claude
Claude
AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者
04.10

AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者

Anthropic
Anthropic
Claude
Claude
「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない
04.08

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

この記事の目次

この記事の目次

上部へスクロール