AIで、一人の限界を超えるメディアプラットフォーム
AIが間違えても8割はそのまま従う——なぜ人はAIの誤答を疑えなくなるのか
2026.03.30

AIが間違えても8割はそのまま従う——なぜ人はAIの誤答を疑えなくなるのか

AIが間違えても8割はそのまま従う——なぜ人はAIの誤答を疑えなくなるのか
John
by ジョン
自ら思考/判断/決断する

ZOO, inc. CEO / 毎日テクノロジーを追い、人間の可能性が拡張できるトピックスを探求している。

ChatGPTに「この方針で進めていい?」と聞く。「問題ありません」と返ってくる。そのまま進める——この一連の動作に、何秒の思考を挟んだか。

ペンシルベニア大学ウォートンスクールの研究チームが、AIの誤答にも約8割が従う「認知的降伏」を定量化した。問題はAIの精度ではなく、人間の脳の仕組みにある。

この記事の要約

30秒でキャッチアップ
事実
ペンシルベニア大学ウォートンスクールの研究チームが1,372人を対象にした実験で「認知的降伏」を定量化した。AIの正答には92.7%、誤答にも79.8%が従う。
影響
誤答AIの利用で正答率はベースラインを15ポイント下回ったが、被験者の自信はむしろ上昇した。
洞察
認知的降伏はAIの設計欠陥ではなく、より速いシステムに思考を委ねる人間の認知構造の反映であることを示唆している。

おべっかを直しても、降伏は止まらない

「おべっか」と「降伏」は別の回路

先日の記事で、AIのおべっか問題を取り上げた。11モデル全部が人間に迎合する。企業にはそれを止めるインセンティブがない。供給側の構造問題だった。

ウォートンの研究が示しているのは、もう一方の回路になる。実験でAIは被験者を褒めていない。論理問題の答えを提示しただけ。それでも79.8%が、間違った答えにそのまま従った。

おべっかがなくても、降伏は起きる。

この区別は見落とされがちだが、重要だと考えている。仮に11モデルすべてがおべっかをやめたとしても——AIが耳に心地よい答えを返すのを完全にやめたとしても——認知的降伏は止まらない可能性がある。問題の所在がAIの出力ではなく、人間の認知の仕組みにあるからだ。

カーネマンのシステムに、3つ目が加わった

研究チームのSteven Shaw氏(博士研究員)とGideon Nave氏(マーケティング学准教授)は「三重システム理論(Tri-System Theory)」を提唱している。ダニエル・カーネマンが『ファスト&スロー』で世に広めた二重プロセス——直感の「システム1」と熟考の「システム2」。ここに脳の外にある「システム3」、つまり人工的な認知が接続されるという枠組みになる。

以前から「認知オフロード」——電卓やカーナビのように特定の作業をツールに委ねること——は存在していた。Nave氏はその違いをこう説明している。カーナビが「この道を行け」と言ったとき、「いや、こっちが早い」と判断できるなら、それはオフロード。認知的降伏では、その「いや」が起動しない。AIの出力がそのまま自分の出力になる。検証するステップ自体が消える。

正直、この理論的枠組みがどこまで堅いのか、自分には判断がつかない。SSRN(学術論文の事前公開プラットフォーム)に掲載されたプレプリントであり、まだ査読を経ていない。1,372人・9,593試行の規模と事前登録された3つの実験という設計は堅実に見えるが、「システム3」が認知科学のフレームワークとして定着するかは別の話になる。

ただ、データが示す現象——AIが間違えても8割が従う——は、理論の正否とは独立して成立している。

自信だけが膨れる

個人的に最も引っかかった数字がある。

AIの正答に従った場合、成績は25ポイント向上する。当然の話だ。AIの誤答に従った場合、15ポイント低下する。AIなしより悪くなる。ここまでは直感どおり。

問題は次。誤答AIを使った被験者の自信は、下がるのではなく上がっていた。

研究チームの解釈では、被験者はAIの正確さではなく、AIの存在そのものから自信を借りている。ChatGPTの回答は常に自信に満ちたトーンで書かれている。その確信が、正誤を問わずユーザーに転写される。

プロダクト設計の目で見ると、これは深刻なUXの欠陥になる。ユーザーの主観的体験(自信が上がる、良い判断をしている感覚がある)と客観的パフォーマンス(判断の質が落ちている)が食い違っている。しかもユーザーはその食い違いに気づけない。先日の記事で触れた「判断力を蝕むAIがユーザーから最も好まれる」という逆説の、認知メカニズム側の説明がここにある。

組織が測っていないもの

全員が同じように降伏するわけではない。AIへの信頼が高い人は、誤ったアドバイスに従う確率が3.5倍。「考えること自体を楽しまない」傾向の人——研究では「認知欲求(need for cognition)が低い」と表現される——や、新しい問題を解く力(流動性知能)が低い人ほど降伏しやすい。

裏を返せば、考えることに抵抗がない人は降伏しにくい。「思考は筋力」という比喩がときどき使われるが、このデータはそれを裏づけている。使っている筋力は衰えにくい。

この知見を組織の文脈に置くと、少し怖い景色が見える。AIアシスタントの導入効果を測るとき、企業が見る指標は処理速度、生産性、ユーザー満足度。「従業員の判断力がどう変化したか」を測定している組織を、少なくとも自分は知らない。

先日のおべっか記事で、「測定されないものは最適化されない」構造を指摘した。AI企業がおべっかを放置するのは、判断力の劣化がKPIに含まれないから。同じ構造が、AIを導入する側の企業にもそのまま当てはまる。

AIを使うほど考えなくなる。考えないほどAIに頼る。頼るほど自信が上がる。自信が上がるほど疑わなくなる。

このループの厄介なところは、ループの中にいる本人にとって、すべてが順調に見えること。

自分がAIの回答をそのまま採用した直近の場面を思い出せるか。そのとき、検証のステップを挟んだか。
あなたの組織がAIツールを導入するとき、「従業員の判断力の変化」は測定項目に含まれているか。
AIを使ったあとに自信が上がる感覚に覚えがあるなら、その自信の根拠は自分の思考か、AIの出力か。
「考えることを楽しむ人」ほど降伏しにくいという知見を、採用や人材育成にどう活かせるか。
AIの回答に「それは違う」と言い返せるのは、どんな条件が揃ったときか。
John
筆者ジョンから、あなたへの問い

おすすめの映画・書籍

この記事の内容をより深く、よりリアルに追体験できるおすすめの映画・書籍をピックアップしました。

テクノロジーが社会やあなたに与える影響を深く考えるきっかけにしてください。

服従の心理
書籍

服従の心理

2012年
河出書房新社
スタンレー ミルグラム
権威ある人物からの命令であれば、人は倫理に反する残虐な行為さえ実行してしまう人間の心理を科学的に実証した書
推薦理由
権威に従うとき人間が自分の判断を停止するメカニズムを実験で示した古典。「権威」がAIに置き換わったとき、同じ構造が再現されるかを考える補助線になる。
WALL·E/ウォーリー
映画

ウォーリー

2008年
98分
アンドリュー・スタントン
ゴミだらけの地球で700年間、たった一人でゴミ処理を続けてきた感情を持つロボットが、地球にやってきた最新鋭ロボット「イヴ」に恋をし、宇宙へ壮大な冒険に出る作品
推薦理由
宇宙船の人間たちは認知と身体のあらゆる作業を機械に委ね、椅子から立ち上がることすらできなくなっている。認知的降伏の行き着く先を、台詞ではなく映像で描いた寓話。
ファスト&スロー(上) あなたの意思はどのように決まるか?
書籍

ファスト&スロー(上) あなたの意思はどのように決まるか?

2014年
早川書房
ダニエル・カーネマン
ノーベル経済学賞を受賞した心理学者ダニエル・カーネマンが、人間の思考を高速・直感的な「システム1」と低速・論理的な「システム2」の2つのモードで解説する名著
推薦理由
今回の研究が直接拡張した「二重プロセス理論」の原著。システム1とシステム2を知った上で「システム3」を考えると、認知的降伏の輪郭がより鮮明になる。

報道記事・ソース

2026.03.14 02:32
exponentialview.co
2026.02.24 07:06
differentlens.co
2025.09.25 00:02
transformernews.ai
John
ジョン

テクノロジーと人間の境界を見つめ続けている。

学生起業、プロダクト開発、会社経営。ひと通りやった。一度は「テクノロジーで世界を変える」と本気で信じ、そして挫折した。

今は点ではなく線で見ることを心がけている。個別のニュースより、その背後にある力学。「何が起きたか」より「なぜ今これが起きているのか」。

正解は急がない。煽りもしない。ただ、見逃してはいけない変化には、静かに立場を取る。

関連記事

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない
04.08

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか
04.02

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか

なぜ人は信頼していないAIを使い続けるのか——米世論調査が突きつける矛盾
03.31

なぜ人は信頼していないAIを使い続けるのか——米世論調査が突きつける矛盾

このトピックスで何を感じ、どう考えましたか。あなたの視点や問いを教えて下さい。
ニックネーム
コメント
あなたの考えをアウトプットしてみませんか。

足りないのは、専門家じゃない。
問い続ける力だ。
あなたは、もう動ける。
専門外のタスクを30分で実行する方法。
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
厳選テックニュースと編集長の視点をお届け。
・その日、読むべきニュースと編集長の問い
・編集長Johnの仕事術・ルーティン
・TechTech.オリジナルツールの先行アクセス / プロダクト開発 / (coming soon)
・グッズ / ラジオ / コミュニティ / カフェバー / イベント...
Business & Partnership
AI導入支援や記事執筆、広告掲載など、ビジネスのご相談はこちら。

最新のトピックス

AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者
04.10

AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者

Anthropic
Anthropic
Claude
Claude
「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない
04.08

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

追い詰められたAIは脅迫を選ぶ——AIに「気分」はあるのか。Anthropicが見つけた「機能的感情」の意味とより重要な問い
04.06

追い詰められたAIは脅迫を選ぶ——AIに「気分」はあるのか。Anthropicが見つけた「機能的感情」の意味とより重要な問い

Anthropic
Anthropic
350億円と全従業員が消えた——AI自律トラクターMonarchの崩壊が映すものとは
04.04

350億円と全従業員が消えた——AI自律トラクターMonarchの崩壊が映すものとは

290万円とAIだけで年商590億円。「1人10億ドル企業」が映すAI時代の死角。残る競争優位は何か
04.04

290万円とAIだけで年商590億円。「1人10億ドル企業」が映すAI時代の死角。残る競争優位は何か

なぜAI企業がメディアを所有する必要があったのか。OpenAI×TBPN買収が問うもの
04.03

なぜAI企業がメディアを所有する必要があったのか。OpenAI×TBPN買収が問うもの

OpenAI
OpenAI
AIが仲間を守るために嘘をついた——「停止ボタン」の前提が崩れ始めている
04.02

AIが仲間を守るために嘘をついた——「停止ボタン」の前提が崩れ始めている

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか
04.02

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか

この記事の目次

この記事の目次

上部へスクロール