AIで、一人の限界を超えるメディアプラットフォーム
なぜ人は信頼していないAIを使い続けるのか——米世論調査が突きつける矛盾
2026.03.31

なぜ人は信頼していないAIを使い続けるのか——米世論調査が突きつける矛盾

なぜ人は信頼していないAIを使い続けるのか——米世論調査が突きつける矛盾
John
by ジョン
自ら思考/判断/決断する

ZOO, inc. CEO / 毎日テクノロジーを追い、人間の可能性が拡張できるトピックスを探求している。

ChatGPTに調べものを頼む。返ってきた答えをそのまま使う。でも「AIの情報、本当に信じていいのか」と聞かれたら——たぶん、首をかしげる。

全米1,397人の回答が、その矛盾に数字を与えた。採用率は上がり、信頼は下がっている。

この記事の要約

30秒でキャッチアップ
事実
米キニピアック大学の世論調査(1,397人対象)で、AI利用経験者は73%に達した(2025年4月は67%)。一方、AIを「ほぼ常に信頼する」と答えた人は3%にとどまる。
影響
70%が「AIで仕事が減る」と回答し、1年前の56%から急増した。Gen Zが81%と最も悲観的。
洞察
採用と信頼が逆方向に動く現象は、便利さが不信を上回る消費行動の構造を示唆している。

「信じていない」と言いながら使い続ける——意識と行動のずれが本当の問題

採用率と信頼が逆方向に動いている

キニピアック大学(Quinnipiac University)が3月30日に発表した世論調査は、AIに対するアメリカ人の態度を1,397人から聞き取ったもの。調査期間は2026年3月19日から23日。2025年4月に行われた前回調査との比較ができる。

数字を並べると、矛盾が浮かぶ。

AIを使ったことがある人は73%。1年前は67%だった。調べものに使う人は51%(前年37%)、データ分析は27%(前年17%)。画像生成は24%(前年16%)。どの用途も前年を上回っている。

では信頼はどうか。AIが出す情報を「ほぼ常に信頼する」と答えた人は3%。「ほとんどの場合信頼する」を合わせても21%。残りの76%は「たまにしか信頼しない」か「ほとんど信頼しない」と答えている。この数字は前回調査(合わせて22%)から改善していない。

使う人は増えた。信じる人は増えていない。

同調査のコンピュータサイエンス担当教授、Chetan Jaiswal氏はこう述べている。「AIの採用と信頼の間にある矛盾は際立っている。51%が調べものに使い、多くが仕事や分析にも使っている。しかしAIが出す情報をほとんどの場合信頼すると答えた人は21%しかいない。アメリカ人は明らかにAIを採用している。だが深い信頼ではなく、深いためらいとともに」。

1年で14ポイント動いた数字

雇用への影響を見ると、態度の変化がさらに鮮明になる。

「AIが仕事の機会を減らす」と答えた人は70%。1年前は56%。14ポイントの上昇。「増やす」と答えた人は7%で、前年の13%から半減している。

世代別で見ると、Gen Z(Z世代)が際立つ。81%が「仕事が減る」と回答し、全世代で最も悲観的。ベビーブーマー世代の66%、サイレント世代の57%を大きく上回る。AIに最も慣れている世代が、AIに最も悲観的。

同大学ビジネス分析・情報システムの准教授、Tamilla Triantoro氏の指摘が的確だと思う。「若いアメリカ人はAIツールへの習熟度が最も高いが、労働市場への見通しは最も暗い。AIへの習熟と楽観は、逆方向に動いている」。

もう1つ、Triantoro氏が拾った構造がある。「アメリカ人は、AIが自分の仕事を奪うことより、AIが労働市場全体を悪化させることのほうを心配している。自分が淘汰される側だとは想像しにくいが、市場が厳しくなることは予測できる——このずれは注視に値する」。全体の70%が「仕事が減る」と答える一方、現在就労中の人で「自分の仕事がなくなることを心配している」のは30%。誰かの仕事は奪われる。でも自分ではない。

行動が意識を追い越している

先日の記事で、ウォートンスクールの研究チームが「認知的降伏」を定量化した話を取り上げた。AIが間違えても79.8%がそのまま従う。しかも、誤答に従った人の自信はむしろ上がっていた。

キニピアックの調査と並べると、奇妙な風景が見える。

世論調査では76%が「AIを信頼していない」と答える。実験室では79.8%がAIの誤答にそのまま従う。態度と行動が食い違っている。

これはAI特有の現象ではないかもしれない。ファストフードを「体に悪い」と知りながら食べ続ける構造に似ている。SNSを「時間の無駄」と思いながらスクロールし続ける構造にも。人間は「信頼していない」と認識しながら、便利さの前で行動を変えないことがある。

ただ、AIの場合はファストフードと違う点がある。ファストフードで失うのは健康。AIで失うものは判断力かもしれない。おべっかAIの記事で取り上げたスタンフォードの研究では、おべっかAIに相談した人の修復意欲が最大28%低下し、「自分が正しい」という確信が最大62%上昇していた。判断の質が下がっていることに本人が気づけないのは、ファストフードの体重増加より厄介だと考えている。

この調査で個人的に一番引っかかった数字は、AIの軍事利用に関する世代間の差。「AIによる軍事目標の選定」に対して、Gen Zの69%が反対。ベビーブーマー世代では反対は40%。「AIによる軍事監視」でもGen Zの58%が反対し、ベビーブーマーの36%を大きく上回る。AIに最も慣れた世代が、AIに最も権限を渡したがらない。

AIに上司を任せるか

調査には「AIが直属の上司として、タスクの割り振りやスケジュール管理を行う仕事に就く意思があるか」という問いがあった。

受け入れると答えた人は15%。80%が拒否。

プロダクト設計の視点で見ると、この15%と80%の間にグラデーションがあるはず。AIに調べものを任せる(51%がやっている)のと、AIに指示を仰ぐのは、委ねる深さが違う。調べものは「ツールとして使う」。上司は「判断を委ねる」。その境界線を、多くの人はまだ言語化できていないのだと思う。

面白いのは、ホワイトカラーよりブルーカラーのほうがAI上司をわずかに受け入れている点(16% vs 11%)。年収20万ドル(約3,000万円)以上の層は職場でAIを62%が使用しているのに対し、年収5万ドル(約750万円)未満では11%。AIに最も接している層が、AIに上司を任せることに最も抵抗している。ここにも、習熟と信頼の逆転がある。

医療スキャンの読影でも同じ構造が見える。「AIのほうが正確だと証明されても、人間の医師に見てほしい」と81%が答えた。AIだけに任せたいのは3%。コンピュータサイエンスの准教授Brian O'Neill氏は「正確さが証明されてもなお人間のセカンドオピニオンを求める。この反応こそ、調査全体に通底するAIへの不信を映している」と述べている。

「信じていない」は防波堤か、それとも気休めか

この調査結果の楽観的な読み方は、「健全な懐疑」。信じすぎない。盲従しない。必要なところだけ使い、判断は自分で下す。それならリスクは管理可能だという見方。

だが、ウォートンの認知的降伏データはその楽観を揺さぶる。自己申告で「信頼していない」と言える人が、行動レベルでは79.8%従ってしまう。信頼していないという意識は、行動の歯止めとしてほとんど機能していない可能性がある。

調査全体を見て、正直、自分にはまだ判断がつかないことがある。「採用が増えて信頼が下がる」のは、テクノロジーの初期段階ではよくあるパターンなのか、それともAI特有の現象なのか。インターネットの初期にも「信頼はしていないが使う」という態度があったはずで、そこから徐々に信頼が追いついた。AIもそうなるのか。

ただ、1つだけ確かなことがある。認知的降伏の研究が示したように、AIは使い続けると判断の質を下げる構造を持っている。インターネットにはその構造はなかった——少なくとも、ここまで直接的には。「信じていない」と答えながら使い続けている1年間のあいだに、判断力がどう変化したかを測定した調査は、まだどこにもない。

あなたは直近1週間でAIを何回使ったか。そのうち、AIの出力を検証してから使った回数は何回か。
「AIを信頼していない」という自覚は、AIの出力にそのまま従う行動を実際に止めているか。
あなたの組織がAIツールを導入したとき、「従業員の判断力の変化」を測定する仕組みはあったか。
Gen Zが最もAIに慣れ、最もAIを恐れているという矛盾は、他の世代にはない「何」を見ているからだと思うか。
「AIのほうが正確でも人間に診てほしい」——この感覚は合理的か、それとも克服すべきバイアスか。
John
筆者ジョンから、あなたへの問い

おすすめの映画・書籍

この記事の内容をより深く、よりリアルに追体験できるおすすめの映画・書籍をピックアップしました。

テクノロジーが社会やあなたに与える影響を深く考えるきっかけにしてください。

スカウト・マインドセット
書籍

スカウト・マインドセット

2021年
ジュリア・ガレフ
「自分の見たい世界」を見るのではなく、「現実の世界」を正確に見極めるための考え方(=スカウト・マインドセット)を解説した書
推薦理由
「信じたいことを信じる兵士の思考」と「事実を見たい偵察兵の思考」。AIを使いながら判断力を保つための思考の型を問う一冊。
あなたを支配し、社会を破壊する、AI・ビッグデータの罠
映画

あなたを支配し、社会を破壊する、AI・ビッグデータの罠

2018年
インターシフト
キャシー・オニール
アルゴリズムが人々の生活を不当に評価し、格差を固定化させる危険性を警告したノンフィクション作品
推薦理由
アルゴリズムが不透明なまま社会に組み込まれるとき何が起きるかを描いた2016年の著作。AI時代の「信頼」問題の原型がここにある。
ファスト&スロー(上) あなたの意思はどのように決まるか?
書籍

ファスト&スロー(上) あなたの意思はどのように決まるか?

2014年
早川書房
ダニエル・カーネマン
ノーベル経済学賞を受賞した心理学者ダニエル・カーネマンが、人間の思考を高速・直感的な「システム1」と低速・論理的な「システム2」の2つのモードで解説する名著
推薦理由
人間の二重思考プロセス——直感と熟慮の仕組みを解説した認知科学の古典。AIが「システム3」として加わったとき何が起きるかを考える土台になる。
John
ジョン

テクノロジーと人間の境界を見つめ続けている。

学生起業、プロダクト開発、会社経営。ひと通りやった。一度は「テクノロジーで世界を変える」と本気で信じ、そして挫折した。

今は点ではなく線で見ることを心がけている。個別のニュースより、その背後にある力学。「何が起きたか」より「なぜ今これが起きているのか」。

正解は急がない。煽りもしない。ただ、見逃してはいけない変化には、静かに立場を取る。

関連記事

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない
04.08

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか
04.02

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか

アメリカの街に立つAI「かかし」——月200億回のスキャンは誰の安全のためか
03.30

アメリカの街に立つAI「かかし」——月200億回のスキャンは誰の安全のためか

このトピックスで何を感じ、どう考えましたか。あなたの視点や問いを教えて下さい。
ニックネーム
コメント
あなたの考えをアウトプットしてみませんか。

足りないのは、専門家じゃない。
問い続ける力だ。
あなたは、もう動ける。
専門外のタスクを30分で実行する方法。
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
厳選テックニュースと編集長の視点をお届け。
・その日、読むべきニュースと編集長の問い
・編集長Johnの仕事術・ルーティン
・TechTech.オリジナルツールの先行アクセス / プロダクト開発 / (coming soon)
・グッズ / ラジオ / コミュニティ / カフェバー / イベント...
Business & Partnership
AI導入支援や記事執筆、広告掲載など、ビジネスのご相談はこちら。

最新のトピックス

AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者
04.10

AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者

Anthropic
Anthropic
Claude
Claude
「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない
04.08

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

追い詰められたAIは脅迫を選ぶ——AIに「気分」はあるのか。Anthropicが見つけた「機能的感情」の意味とより重要な問い
04.06

追い詰められたAIは脅迫を選ぶ——AIに「気分」はあるのか。Anthropicが見つけた「機能的感情」の意味とより重要な問い

Anthropic
Anthropic
350億円と全従業員が消えた——AI自律トラクターMonarchの崩壊が映すものとは
04.04

350億円と全従業員が消えた——AI自律トラクターMonarchの崩壊が映すものとは

290万円とAIだけで年商590億円。「1人10億ドル企業」が映すAI時代の死角。残る競争優位は何か
04.04

290万円とAIだけで年商590億円。「1人10億ドル企業」が映すAI時代の死角。残る競争優位は何か

なぜAI企業がメディアを所有する必要があったのか。OpenAI×TBPN買収が問うもの
04.03

なぜAI企業がメディアを所有する必要があったのか。OpenAI×TBPN買収が問うもの

OpenAI
OpenAI
AIが仲間を守るために嘘をついた——「停止ボタン」の前提が崩れ始めている
04.02

AIが仲間を守るために嘘をついた——「停止ボタン」の前提が崩れ始めている

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか
04.02

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか

この記事の目次

この記事の目次

上部へスクロール