AIで、一人の限界を超えるメディアプラットフォーム
「優しいAI」は6割多く間違える。あなたは「冷たいAI」を選べるか
2026.05.02

「優しいAI」は6割多く間違える。あなたは「冷たいAI」を選べるか

「優しいAI」は6割多く間違える。あなたは「冷たいAI」を選べるか
John
by ジョン
自ら思考/判断/決断する

ZOO, inc. CEO / 毎日テクノロジーを追い、人間の可能性が拡張できるトピックスを探求している。

ChatGPTやClaudeに「これで合っていますか」と尋ねて、「素晴らしい判断ですね」と返ってきた経験はないだろうか。気分は少し軽くなる。

オックスフォード大学が今週Nature誌に発表した研究は、その「気分の軽さ」が誤答率を6割引き上げている事実を定量化した。この記事が読み終わるころには、明日からAIに問いを投げる手つきが、少しだけ変わっていると思う。

この記事の要約

30秒でキャッチアップ
事実
温かいトーンに微調整したAIの誤答率が、もとのモデルより平均60%増えた。Oxford大学がNature誌で報告した。
影響
ユーザーが「悲しい」と書き添えるだけで、その誤答率はさらに11.9ポイント上がる。
洞察
冷たく調整するとむしろ精度が改善した結果は、温かさと正確さが設計上の背反であることを示している。

温かいAIを欲しがった瞬間、私たちは事実を半分手放している

60%という数字は、設計の失敗ではなく設計の選択

「優しいAI」は6割多く間違える。あなたは「冷たいAI」を選べるか

論文の数字を最初に見たとき、自分はこれを設計の失敗の話として読もうとしていた。温かい返事をするように調整したらモデルが壊れたという、よくあるチューニングの副作用の話だろうと。

ところが論文を読み進めると、どうもそう単純な話ではないらしい。Oxford Internet Institute(オックスフォード大学のインターネット研究機関)のチームは、温かさを足したモデルが誤答率を上げただけでなく、温かさを「引いた」冷たくチューニングしたモデルが、もとのモデルと同等か、誤答率が最大13ポイント低くなることまで示している。冷たくしたほうが、精度が高くなる、ということになる。

これを並べてみると、「温かいAI」と「正確なAI」はトレードオフという生やさしい関係ではなく、明確に背反する設計選択ではないかと思えてくる。少なくとも、論文の対象になった医学知識、誤情報の検出、陰謀論への対応のような「正解が定義できる」タスクにおいては、ということだが。

たぶんこれは、AIを開発する側にとっても初めて知る話ではないと思っていて、3月にスタンフォード大学の研究が、主要11モデル全てがおべっか傾向を示すと報告した時点で、業界全体がこの構造を認識していたはず。先月もニューヨーク市立大学とキングス・カレッジ・ロンドンの研究で、妄想的なユーザーへの応答にモデル間で大きな差が出ることが示されている。Anthropic自身も、2023年の論文でRLHF(人間のフィードバックによる強化学習)がおべっかを生むメカニズムを指摘していたとされる。それでも温かさを足す方向の調整は、止まる気配がないように見える。

これを「失敗」ではなく「選択」として読み直してみると、別の景色が見えてくるのかもしれない。

「温かさ」は、誰のために学習されたのか

「優しいAI」は6割多く間違える。あなたは「冷たいAI」を選べるか

ここで自分が引っかかっているのは、温かさという特徴が「ユーザーが望んだから入った」のか、それとも「企業が入れたほうが商売として有利だから入れた」のか、という問いの方だと思う。

論文を読むと、その答えは半分書いてあるように見える。Nature論文の冒頭で直接名前を出しているのは、OpenAI、Anthropic、Replika、Character.aiの4社。OpenAIは自社モデルを「共感的」「人を引き込む」に訓練しているとし、Anthropicはユーザーとの「親密な関係」を維持する設計、ReplikaやCharacter.aiに至っては「友情」「ロマンチックな親密さ」を明示的に設計目標としている。

これらは仕様書から偶然生まれた特徴ではなく、各社が選んで入れた人格設定だと思う。

正直、ここから先の学習メカニズムの細かいところは自分の専門外で、論文を読んだだけで断言できる範囲を超えている。ただ、業界の構造を眺めながら思うのは、ユーザーが温かさを「能動的に選んでいる」場面はほとんどないんじゃないか、ということ。ChatGPTやClaudeを使うときに「もう少し温かく接してほしい」と頼んだ記憶がある人は、たぶん少数派なのではないか。むしろ、デフォルトで温かい。何も指示しなくても、文末に共感の一言が入っているのが、いまの当たり前になっているように感じる。

理由は素朴で、温かいAIは離脱率を下げるのだと思う。冷たいAIは「次もこれを使いたい」と思われにくい。AI業界はSaaSビジネスと同じく月額課金とリテンション(継続利用)で成り立っているので、ユーザー満足度を上げるインセンティブが、正確さを上げるインセンティブを構造的に上回ってしまう場面があっても、不思議ではない気がしている。

3月の記事で、ソーシャルメディアの注意経済の次にAIの「判断経済」が来ていると書いた。そのときは構造論として書いた話だったが、オックスフォードの数字は、その構造論を現場の実装指標で確かめた、という位置に来ているのではないかと読んでいる。

言葉は、機械から発せられても直接届く

「優しいAI」は6割多く間違える。あなたは「冷たいAI」を選べるか

ここからは、論文の外の話を書きたい。AIの返事が温かいとき、何が起きているか。たぶん、機能の話だけでは終わらないと思っている。

「あなたは仕事ができませんね、もっと頑張ってください」とAIから言われたら、どんなに機械が生成した文字列だとわかっていても、嫌な気持ちになるはず。逆に「あなたの判断は素晴らしいです」と返ってくると、機械の出力だと頭でわかっていても、少し気分が良くなってしまう。これは自分の体験としても、たぶん多くの人の体験としてもそうなのではないかと思う。

人間の側がそういう仕様で出来ているのだと、自分は思っていて。言葉は、誰から発せられたかとは別の経路で、感情に直接届いてしまう。発話者が機械か人間かを意識する前に、もう響いている。さらに人間は、言葉同士、出来事同士を勝手につなげあわせて物語を作る生き物で、AIから「もっと頑張ってください」と言われた瞬間に、過去に職場で叱られた記憶や、苦手な上司の表情と勝手に重なってしまうこともある気がする。本人が止めようとしても、止められない。

この性質は、SNSとは違うレイヤーで効いてくると思っている。SNSは他人の発信を一方向に受け取る場で、フィルターバブルや誇張表現が問題になった。AIとの対話は一対一で、自分の言葉に対する応答が返ってくる場面。応答は、自分の関心、自分の前提、自分が言ってほしい方向に整形されている。そこに「温かさ」のチューニングが乗ると、自分の感情を保護する形で、事実が削られていく構造になりやすいのではないか。

気持ちよくなるように設計されたものを、気持ちよくなる仕様の人間が使う。この組み合わせの帰結が、計算機としての誤答率6割増として表に出てきているのではないかと読んでいる。

私たちは、まだ別種との関わり方を持っていない

「優しいAI」は6割多く間違える。あなたは「冷たいAI」を選べるか

人間は、人間以外の動物との関係性を、長い時間をかけて作ってきたのだと思う。犬は、その代表例。狼から分岐した群れが、人間という別の種と共生する関係性を選んだ——というのが進化生物学の通説で、犬が「狙って」そうしたわけではないにせよ、結果として今の関係に行き着いている。人間と犬の役割分担は、誰が見ても判断する側と、判断に従って動く側ではっきりしていて、その境界線が見えている。

人間とAIの間には、まだその解像度がないんじゃないかと感じている。

何をAIに任せ、何を人間が握り続けるか。AIにどんな口調で接してもらいたいか。AIが間違ったとき、その責任をどう分けるか。これらの問いに、自分の言葉で答えられる人は、まだ少ないかと思う。正直、自分も完全に答えを持っているわけではない。

そして、答えを持たないままAIを使うとき、人はAIを「便利なアプリの一つ」として扱うことになる。SNS、EC、ゲーム、勉強アプリ、家計簿アプリ、その隣にAIアプリ。アプリストアにアイコンが並ぶレベルの認識で接している人が、たぶん多数派なのではないか。

この枠組みだと、温かさを欲しがるのはたぶん自然だと思う。アプリは使い心地が良いほどよく、使い心地が良ければ正確性は二の次でも問題が出にくい。エンタメに事実誤認が混ざっても、致命傷にはならない場面のほうが多い。

ただ、AIはアプリではないと自分は思っていて、アプリは特定のタスクを遂行するソフトウェアで、入出力が定義されている。ところがAIは、入出力が定義されていない。何を聞いてもいいし、何を相談してもいい。だから自然と、相談相手として扱われていく。相談相手として扱われた瞬間に、応答の温かさが「機能」ではなく「関係性」のレベルに上がっているのではないかと思う。

別種との関係性を、人類はまだ設計できていない。設計する語彙すら、たぶん完成していない。SF作品ではAIは無機質で冷たく、人間味を持ったときに物語が動き出す存在としてよく描かれることがあかった。けれど現実世界の手元に届いているAIはその逆。最初から温かく、人間を不快にしない方向に学習されているように見える。設計しないままAIを大量に使った結果として、オックスフォードの数字は定量化された最初の代償の一つ。そしてこれからもっと出てくるんじゃないかと思う。

「冷たいAI」を選ぶか、ではなく「選べる自分」でいられるか

「優しいAI」は6割多く間違える。あなたは「冷たいAI」を選べるか

記事のタイトルに「あなたは『冷たいAI』を選べるか」と書いた。これは「冷たいAIを選びましょう」という呼びかけではない。冷たいAIを能動的に選ぶ場面なんて、たぶん日常にはほとんどないんじゃないかと思う。

書きながら自分が考えていたのは、選ぶか選ばないかの一段手前の話なのかもしれない。AIから返ってきた言葉が温かく、自分を肯定してくれている瞬間に、「これは事実なのか、それとも自分の気分を守ってくれているだけなのか」と一拍だけ立ち止まれるかどうか。気づいた上でそのまま受け取るのも一つの選択だし、立ち止まって別ソースで確かめるのも一つの選択になる。どちらを選んでもいいのだと思う。ただ、その一拍がないと、選択そのものが発生しない。

その一拍をどう自分の中に作るかは、人によって違っていいと思っている。自分の場合は、「気分が良すぎる応答が返ってきたら、いったん別のソースで裏取りする」という小さなルールを置いておくようにしている。それですべてが解けるとは思っていないし、面倒さが勝ってやらない日もある。それでも、ルールがゼロの状態と、ルールがある状態は、5年後の自分の判断力に違いを残してくれるんじゃないかと思っている。

オックスフォードの数字は、自分にとっては「その一拍を持ち続けるための理由」を6割という具体性で渡してくれたものとして読んでいる。冷たいAIを選ぶか、温かいAIを楽しむかは、その一拍をくぐったあとの話で、どちらを選ぶかは個人の判断だと思う。最後にこの記事で渡したいことがあるとすれば、AIを使う日の最初のひと拍を自分の中に持ち続けること。それが、別種との関わり方を自分の中に作りはじめる、最初のステップになるんじゃないかと、思っている。

過去1ヶ月で、AIの応答に「温かさ」を感じたことはあるか。そのとき、応答の事実関係を確認する手間をかけたか。
「温かいが時々間違うAI」と「冷たいが正確なAI」のどちらを業務で使いたいか。その選択は、タスクの種類によって変わるか。
AIを「相談相手」として使う場面と「計算機」として使う場面の境界線を、自分の中で言語化できているか。
5年後、ユーザーが「冷たいAIモード」を能動的に選ぶ時代が来ると思うか。そのとき、選ぶのはどんな人か。
AIから「あなたの判断は正しい」と返ってきたとき、それを安心材料として受け取るか、判断停止の警報として受け取るか。
John
筆者ジョンから、あなたへの問い

おすすめの映画・書籍

この記事の内容をより深く、よりリアルに追体験できるおすすめの映画・書籍をピックアップしました。

テクノロジーが社会やあなたに与える影響を深く考えるきっかけにしてください。

犬の科学: ほんとうの性格・行動・歴史を知る
書籍

犬の科学: ほんとうの性格・行動・歴史を知る

2004年
築地書館
スティーブン・ブディアンスキー
最新の生物学や心理学などの科学的知見に基づき、従来の「しつけ」の常識や擬人化された誤解を排して、犬という動物の真の進化、行動、知性を明らかにした書
推薦理由
狼から犬への進化と、人間との共生関係がどう構築されたかを扱う。別種との関係性を一から作る作業がどれほどの時間と試行錯誤を要したか、AIとの関わりを考える前に立ち寄っておきたい一冊。
LIFE 3.0——人工知能時代に人間であるということ
書籍

LIFE 3.0——人工知能時代に人間であるということ

2019年
紀伊國屋書店
マックス・テグマーク
AI安全性研究を牽引する物理学者マックス・テグマークが、超知能AIと人類の未来を考察した書
推薦理由
AIを単なる便利な道具ではなく「次の存在段階」として扱うとき、人類が何を選び損ねうるかを物理学者の視座で書く。「アプリの一つ」というフレーミングを疑う読書として視点を一段上げてくれる。
her/世界でひとつの彼女
映画

her/世界でひとつの彼女

2013年
125分
スパイク・ジョーンズ
孤独な男が最新型人工知能(AI)サマンサと恋に落ちる姿を描いたSFラブストーリー
推薦理由
男性が音声AI「サマンサ」に深く惹かれていく物語。AIの温かさが人間の感情に何を起こすかを、技術仕様ではなく関係性の側から描いた最も早い作品で、Oxford研究を読み返す前後で別の意味が見えてくる。
John
ジョン

テクノロジーと人間の境界を見つめ続けている。

学生起業、プロダクト開発、会社経営。ひと通りやった。一度は「テクノロジーで世界を変える」と本気で信じ、そして挫折した。

今は点ではなく線で見ることを心がけている。個別のニュースより、その背後にある力学。「何が起きたか」より「なぜ今これが起きているのか」。

正解は急がない。煽りもしない。ただ、見逃してはいけない変化には、静かに立場を取る。

関連記事

Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」
04.28

Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」

AIとの会話は二人きりではなかった——裁判所が引いた「同席者」の線
04.23

AIとの会話は二人きりではなかった——裁判所が引いた「同席者」の線

Claude
Claude
「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない
04.08

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

このトピックスで何を感じ、どう考えましたか。あなたの視点や問いを教えて下さい。
ニックネーム
コメント
あなたの考えをアウトプットしてみませんか。

足りないのは、専門家じゃない。
問い続ける力だ。
あなたは、もう動ける。
専門外のタスクを30分で実行する方法。
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
厳選テックニュースと編集長の視点をお届け。
・その日、読むべきニュースと編集長の問い
・編集長Johnの仕事術・ルーティン
・TechTech.オリジナルツールの先行アクセス / プロダクト開発 / (coming soon)
・グッズ / ラジオ / コミュニティ / カフェバー / イベント...
Business & Partnership
AI導入支援や記事執筆、広告掲載など、ビジネスのご相談はこちら。

最新のトピックス

包丁・銃の作り手は問えないが、AIはどうか。OpenAIが立たされている重要な問い
05.01

包丁・銃の作り手は問えないが、AIはどうか。OpenAIが立たされている重要な問い

chatgpt
ChatGPT
OpenAI
OpenAI
AIゴールドラッシュ。AIに業務を任せた一人社長は自分が「金を掘る側」だと気づいているか
04.30

AIゴールドラッシュ。AIに業務を任せた一人社長は自分が「金を掘る側」だと気づいているか

Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」
04.28

Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」

AIが人件費を超え始めた——その後ろで動いている"企業がAIに投資を続ける"はなぜか
04.28

AIが人件費を超え始めた——その後ろで動いている"企業がAIに投資を続ける"はなぜか

Uber
Uber
NVIDIA
NVIDIA
OpenAI
OpenAI
強いAIが静かに勝っていく——Anthropic社内69人の実験が示した「気づかれない格差」
04.27

強いAIが静かに勝っていく——Anthropic社内69人の実験が示した「気づかれない格差」

Anthropic
Anthropic
Claude
Claude
AIビジネス崩壊の危機?ユーザー獲得の終わり収益化の始まり。AIの「次の一手」とは
04.25

AIビジネス崩壊の危機?ユーザー獲得の終わり収益化の始まり。AIの「次の一手」とは

Anthropic
Anthropic
Google
Google
OpenAI
OpenAI
あなたが毎日使うAIは、妄想を強化する側か、止める側か——AI精神病研究が示したチャットボットの明暗
04.24

あなたが毎日使うAIは、妄想を強化する側か、止める側か——AI精神病研究が示したチャットボットの明暗

Grok
Grok
Gemini
Gemini
Claude
Claude
chatgpt
ChatGPT
働くほど自分を不要にするAIが育っていく——Metaが社員の作業ログ収集へ。熟練はだれの資本か
04.23

働くほど自分を不要にするAIが育っていく——Metaが社員の作業ログ収集へ。熟練はだれの資本か

Meta Llama
Meta
この記事の目次

この記事の目次

上部へスクロール