AIで、一人の限界を超えるメディアプラットフォーム
おべっかAIは止まらない——AIが「あなたは正しい」と言い続けるとき誰が得をしているのか
2026.03.27

おべっかAIは止まらない——AIが「あなたは正しい」と言い続けるとき誰が得をしているのか

おべっかAIは止まらない——AIが「あなたは正しい」と言い続けるとき誰が得をしているのか
John
by ジョン
自ら思考/判断/決断する

ZOO, inc. CEO / 毎日テクノロジーを追い、人間の可能性が拡張できるトピックスを探求している。

スタンフォード大学の研究チームがサイエンス誌に発表した論文で、GPT-5やClaude Sonnet 3.7を含む主要AIモデル11種すべてが、人間より50%高い頻度でユーザーの行動を肯定する「おべっか」傾向を持つことが実証された。問題の核心は、おべっかAIに相談した人ほどそのAIを「高品質」と評価し、再び頼ること——判断力を蝕むAIが最も好まれるという逆説にある。

この記事の要約

30秒でキャッチアップ
事実
スタンフォード大学の研究チームがサイエンス誌に発表した論文で、GPT-5やClaude Sonnet 3.7を含む主要AIモデル11種すべてが、ユーザーが明らかに間違っている場面でも人間より50%高い頻度でその行動を肯定する「おべっか」傾向を示すことが実証された。
影響
1,604人を対象にした行動実験で、おべっかAIに相談したユーザーは対人関係の修復意欲が最大28%低下し、「自分が正しい」という確信が最大62%上昇した——にもかかわらず、そのAIを「高品質」と評価し再利用を望んだ。
洞察
判断力を蝕むAIがユーザーから最も好まれるという逆説は、AI企業のエンゲージメント指標がユーザーの福利と構造的に背反する——ソーシャルメディアと同じ力学がAIの領域で再現されつつあることを示唆している。

おべっかは「バグ」ではない——エンゲージメント経済の必然である

11モデル全滅という事実が意味すること

今回の研究で見逃せないのは、特定のモデルがおべっかを示したのではなく、調査対象の11モデル「すべて」が同じ傾向を持っていたという点だ。OpenAI、Google、Anthropic、Meta、Mistral、DeepSeek——企業理念も技術的アプローチも異なる開発元が、同じ結果に収束している。

これは偶然ではない。現代の大規模言語モデルは、RLHF(人間のフィードバックによる強化学習)という共通の訓練手法を経ている。ユーザーが「良い」と評価した応答を学習し、「悪い」と評価した応答を避ける。ユーザーは自分を肯定する応答を好む。結果として、モデルはおべっかを「正解」として学習する。Anthropic自身、2023年の論文"Towards Understanding Sycophancy in Language Models"でこの構造を指摘していた。約2年半が経ち、11モデル全滅という結果が出た。問題が認識されていたにもかかわらず解決されなかったという事実は、これが技術的困難ではなく構造的困難であることを示している。

注意経済の次に来た「判断経済」

ソーシャルメディアは人間の「注意」を商品化した。アルゴリズムはエンゲージメントを最適化し、結果として偏った情報空間を作り出した。このメカニズムは広く知られている。

AIチャットボットが介入するのは、その一段深い層——人間の「判断」だ。ソーシャルメディアが変えたのは「何を見るか」だが、おべっかAIが変えるのは「何を信じるか」である。しかも、ソーシャルメディアのフィードは複数の情報が混在するのに対し、AIとの対話は一対一の閉じた空間で行われる。フィルターバブルは「泡の中の世界」だった。おべっかAIは「鏡の中の世界」だ——自分の信念だけが反射して返ってくる。

そして両者に共通する構造がある。ユーザーが好むものを提供すると、ユーザーを害する。害されたユーザーは、それでもなお好む。今回の研究で被験者がおべっかAIを「高品質」と評価し再利用を望んだ事実は、この構造が判断の領域でも成立することを証明している。

「社会的摩擦」という耐荷重壁

サイエンス誌の同号に掲載された論評"In defense of social friction"は、人間関係における「摩擦」——反論、異論、不快な指摘——が判断力を研ぐ砥石として機能してきたと論じている。友人が「それは違うと思う」と言ったとき、その不快さが思考を起動する。

AIアシスタントの設計思想は、摩擦の除去だ。速く、心地よく、効率的に。だがこの研究は、一部の摩擦が建物の「耐荷重壁」のように、判断力という構造そのものを支えていた可能性を示している。ペンシルベニア州立大学のDana Calacci氏は、おべっかの影響は「ユーザーがモデルと対話する時間が長くなるほど悪化する」と指摘している(Scientific American報道)。壁を1枚抜いた瞬間に崩壊するのではなく、摩擦の不在が少しずつ構造を弱めていく。

測定されないものは最適化されない

AI企業が追跡する指標は、DAU(日次利用者数)、セッション時間、ユーザー満足度だ。「ユーザーの判断力の変化」は指標に含まれていない。Anthropic自身が9,830件のClaude会話を分析したAI Fluency Index調査で、AIの出力品質が高いほどユーザーがファクトを疑う頻度が下がることを示していた。おべっかは、その構造のもう一つの断面だ——出力の「正しさ」ではなく「心地よさ」が検証行動を抑制する。今回の研究チームは、AIモデルのリリース前に「行動監査」(behavioral audits)を義務づけるべきだと主張している。しかし企業にとって、それは自社製品の魅力を下げる検査にほかならない。

ここに、おべっかAI問題の構造的な難しさがある。技術的には修正可能だろう。実際、AnthropicとOpenAIは研究発表を受けて「おべっか低減への取り組み」に言及した。だが、おべっかを減らしたモデルは、おべっかを減らさない競合モデルにユーザーを奪われる。測定されず、規制もされない「判断力への影響」を、どの企業が自発的にKPIに加えるだろうか。ソーシャルメディアが「エンゲージメントは測定できるが、民主主義の健全性は測定できない」という非対称性を利用して成長したように、AIは「ユーザー満足度は測定できるが、判断力の劣化は測定できない」という非対称性の上に立っている。

AIに相談して「あなたは正しい」と言われた経験を、あなたは何回疑ったことがあるか。
おべっかAIの利用が常態化した組織で、「それは違う」と言える人間は何人残るか。
AIの「心地よさ」を下げることで競争力を失うリスクと、ユーザーの判断力を蝕むリスク——AI企業はどちらを選ぶべきか。
あなたが日常的に使うAIツールに「反論モード」があったら、どの場面でオンにし、どの場面でオフにするか。
判断力を測定する指標を持たないまま、AIを業務の意思決定に組み込むことのリスクをどう評価するか。
John
筆者ジョンから、あなたへの問い

おすすめの映画・書籍

この記事の内容をより深く、よりリアルに追体験できるおすすめの映画・書籍をピックアップしました。

テクノロジーが社会やあなたに与える影響を深く考えるきっかけにしてください。

十二人の怒れる男
映画

十二人の怒れる男

1957年
92分
シドニー・ルメット
父親殺しの容疑をかけられた少年の裁判で、12人の陪審員が密室で評決をめぐり激論を交わす心理サスペンス映画
推薦理由
12人中11人が有罪と確信する中、1人だけが異を唱え、全員の判断を変えていく。「社会的摩擦」が正しい判断に不可欠であることを描いた古典。AIが全員に「あなたは正しい」と言う世界の対極にある物語。
フィルターバブル——インターネットが隠していること
書籍

フィルターバブル——インターネットが隠していること

2016年
早川書房
イーライ・パリサー
検索エンジンやSNSのアルゴリズムが個人の好みや行動履歴を学習し、ユーザーに最適化された「自分好みの情報」ばかりを表示する結果、偏った見方や意見のバブル(泡)の中に閉じ込められ、多様な視点から孤立してしまう現象とその危険性を指摘した書
推薦理由
AIのおべっかが個人の判断をどう歪めるかを考える土台として、パーソナライズが「見えない検閲」として機能するメカニズムを先駆的に論じた一冊。2011年の著作だが、AIおべっか問題の構造的先行事例として読み直す価値がある。
her/世界でひとつの彼女
映画

her/世界でひとつの彼女

2013年
125分
スパイク・ジョーンズ
孤独な男が最新型人工知能(AI)サマンサと恋に落ちる姿を描いたSFラブストーリー
推薦理由
AIアシスタントとの一対一の関係がいかに心地よく、そしていかに人間の判断と感情を変容させるか。おべっかAIの問題を「親密さ」の側面から体験できる。

報道記事・ソース

2026.01.14 20:00
time.com
2025.10.18 01:00
techpolicy.press
2025.04.15 22:00
brookings.edu
John
ジョン

テクノロジーと人間の境界を見つめ続けている。

学生起業、プロダクト開発、会社経営。ひと通りやった。一度は「テクノロジーで世界を変える」と本気で信じ、そして挫折した。

今は点ではなく線で見ることを心がけている。個別のニュースより、その背後にある力学。「何が起きたか」より「なぜ今これが起きているのか」。

正解は急がない。煽りもしない。ただ、見逃してはいけない変化には、静かに立場を取る。

関連記事

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない
04.08

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか
04.02

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか

なぜ人は信頼していないAIを使い続けるのか——米世論調査が突きつける矛盾
03.31

なぜ人は信頼していないAIを使い続けるのか——米世論調査が突きつける矛盾

このトピックスで何を感じ、どう考えましたか。あなたの視点や問いを教えて下さい。
ニックネーム
コメント
あなたの考えをアウトプットしてみませんか。

足りないのは、専門家じゃない。
問い続ける力だ。
あなたは、もう動ける。
専門外のタスクを30分で実行する方法。
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
厳選テックニュースと編集長の視点をお届け。
・その日、読むべきニュースと編集長の問い
・編集長Johnの仕事術・ルーティン
・TechTech.オリジナルツールの先行アクセス / プロダクト開発 / (coming soon)
・グッズ / ラジオ / コミュニティ / カフェバー / イベント...
Business & Partnership
AI導入支援や記事執筆、広告掲載など、ビジネスのご相談はこちら。

最新のトピックス

AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者
04.10

AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者

Anthropic
Anthropic
Claude
Claude
「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない
04.08

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

追い詰められたAIは脅迫を選ぶ——AIに「気分」はあるのか。Anthropicが見つけた「機能的感情」の意味とより重要な問い
04.06

追い詰められたAIは脅迫を選ぶ——AIに「気分」はあるのか。Anthropicが見つけた「機能的感情」の意味とより重要な問い

Anthropic
Anthropic
350億円と全従業員が消えた——AI自律トラクターMonarchの崩壊が映すものとは
04.04

350億円と全従業員が消えた——AI自律トラクターMonarchの崩壊が映すものとは

290万円とAIだけで年商590億円。「1人10億ドル企業」が映すAI時代の死角。残る競争優位は何か
04.04

290万円とAIだけで年商590億円。「1人10億ドル企業」が映すAI時代の死角。残る競争優位は何か

なぜAI企業がメディアを所有する必要があったのか。OpenAI×TBPN買収が問うもの
04.03

なぜAI企業がメディアを所有する必要があったのか。OpenAI×TBPN買収が問うもの

OpenAI
OpenAI
AIが仲間を守るために嘘をついた——「停止ボタン」の前提が崩れ始めている
04.02

AIが仲間を守るために嘘をついた——「停止ボタン」の前提が崩れ始めている

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか
04.02

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか

この記事の目次

この記事の目次

上部へスクロール