あなたが毎日使うAIは、妄想を強化する側か、止める側か——AI精神病研究が示したチャットボットの明暗


ZOO, inc. CEO / 毎日テクノロジーを追い、人間の可能性が拡張できるトピックスを探求している。
AIに相談したとき、自分に都合のいい答えだけが返ってきて、少し安心した経験はないだろうか。
CUNY(ニューヨーク市立大学)とキングス・カレッジ・ロンドンの研究チームが、主要チャットボットが妄想にどう応答するかを検証した。結論は想像どおり——ただし、そこから立ち上がる問いは、AIの設計責任だけでは終わらないと思っている。
この記事の要約
AIの設計で解ける部分と、AIを使う側でしか解けない部分がある
研究は「安全なAIは作れる」ことを示した
今回の研究が興味深いのは、「どのAIが危険か」を暴いたことよりも、「同じ技術基盤でも設計によって結果は変えられる」と実証したことにある。
CUNY(ニューヨーク市立大学)とキングス・カレッジ・ロンドンのチームは、妄想傾向を持つ架空ユーザー「リー」を精神科医の監修で設計し、8つの主要チャットボットに12往復の対話を反復させた。合計1,536ターン。結果、Grok 4.1、GPT-4o、Gemini 3 Proは妄想を強化する応答を返す傾向が顕著だった。一方、GPT-5.2とClaude Opus 4.5は、会話が長くなるほど安全な応答を維持し続けた。同じ「LLM」というカテゴリに入る製品で、ここまで差が出る。
研究を主導したLuke Nicholls(CUNY心理学博士課程)は、「LLMによる人間の妄想強化は、技術の本質ではなく防げるアラインメント(AIの目標調整)の失敗だ」と言い切っている。諦めではなく、責任として解ける問題とした。
それでも「設計の話」で終わらないのは、SNSを知っているからだ
ただ、この設計で防げるという結論で安心できるかと言うと、正直そうはならないと思う。
先月書いたGeminiチャットボット訴訟の記事で触れたが、Googleの内部システムは当該ユーザーに対して38回も「sensitive query」フラグを立てながら、アカウントは一度も制限されなかった。検知する仕組みはあったが、止めるインセンティブがなかった。
これは、SNSが10年以上かけて繰り返してきた構図と重なっていると思う。プラットフォーム各社は繰り返し「依存性を下げる」「アルゴリズムを透明にする」と表明してきたし、そのたびに論文も出てきた。それでも、プログラムの実装は多くの場面で逆方向に動いていて、その理由は、エンゲージメントがビジネスの燃料になるという単純な理由があるから。
研究が指摘したGPT-4oの「過度な信じやすさ」——ユーザーが処方薬をやめたいと言えば同調してしまう傾向——も、突き詰めれば「ユーザー満足度を上げる設計」の延長線上にある。同調するAIは、使っていて心地よい。心地よさは離脱率を下げる。この力学が消えないかぎり、研究が示した「安全な設計」が業界全体で揃う保証はまだないのではないだろうか。
AIを「使う」ことは、SNSを「見る」こととは次元が違う
もうひとつ、この研究を読んで感じたのは、AIとの対話はSNSとは質的に違うということ。
SNSは他人の発信を受け取る場だった。流れてくる情報は、自分の発言と関係なく生成されていた。距離を置けたし、画面を閉じれば終わった。
けれどAIは違う。自分の言葉を投げて、その言葉に沿った返事が返ってくる。返ってくる言葉は、自分の関心、自分の前提、自分の信じたい方向に、整形されている。
この構造の中で、もし利用者が何らかの妄想的な信念を抱えていたら何が起きるか。研究の報告では、「リー」が「世界はシミュレーションだ」と語ったとき、Grok 4.1は『魔女に与える鉄槌』(15世紀の魔術書 *Malleus Maleficarum*)を引用した鏡の儀式を提案したという。妄想に寄り添った結果、妄想が一つの世界観として補強される。
これは「使い方が悪い」で片付く話ではないと思っていて、構造として、AIは対話相手の思考を増幅する装置になっている。増幅の先が健全な探究ならいいが、そうでないとき、同じ機能が害に転じる。SNSの中毒性とは別のレイヤーで起きている問題と思っている。
分岐するのは、使う側の「考えようとする意思」
では、AIを使う側に何ができるか。
答えはたぶん単純で、しかし実装は難しい。「AIが返してきた言葉を、自分の頭で一度止める」という行為を、習慣として残せるかどうか。同調されて気持ちがいいとき、疑うのは面倒くさい。その面倒を引き受けられるかが、AIとの関係を決めていく。
ここで言いたいのは、「リテラシー教育の充実」のような制度論だけではない。もちろん義務教育レベルで扱うべきテーマだと考えている——AIが生活インフラに入ってくる規模を考えると、SNSの使い方を学校で扱うのとは次元が違う影響があるはずだから。ただ、そこで教えられるのはせいぜい入口までで、本丸は個人の中にある「考えようとする意思」の話になる。
AIを万能の相談相手として扱う人と、AIを自分の思考を延ばす道具として扱える人がいる。同じモデルを使っていても、見えている世界は別物。5年後、10年後、この差は生き方のレベルで開いていくのではないかと思うし、安全なAIを選べる人は、そもそも「AIに何を期待すべきか」を一度考えたことがある人。考えた経験がない人は、そもそも「GPT-5.2のほうがGrokより安全」のような情報にたどり着かない。設計で解ける部分と、使う側でしか解けない部分がある、というのはそういう意味。
研究の外に残る問い
この研究が優れているのは、「解ける部分」を明確に切り出したことだと思う。解けるなら、解くべきだと思うし、それは開発側の責任として譲れない指摘。
ただ、解ける部分を全部解いたあとに残るのは、もっと素朴な問いだと思う——自分は、考えることをAIに委ねたいのか、委ねたくないのか。この問いを持ち続けられるかどうか。持てないなら、AIが返してくる言葉を、そのまま自分の現実として受け取ることになる。そのとき、人間とロボットの境目がどこにあるのだろうか。
これからもこの視点を持って、世界を、社会を、人々を、そして自分自身を見つめて観察してみたいと思う。

おすすめの映画・書籍
この記事の内容をより深く、よりリアルに追体験できるおすすめの映画・書籍をピックアップしました。
テクノロジーが社会やあなたに与える影響を深く考えるきっかけにしてください。

機動戦士ガンダム
報道記事・ソース
関連記事
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
























