AIで、一人の限界を超えるメディアプラットフォーム
Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」
2026.04.28

Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」

Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」
John
by ジョン
自ら思考/判断/決断する

ZOO, inc. CEO / 毎日テクノロジーを追い、人間の可能性が拡張できるトピックスを探求している。

ネットで調べものをしていて、「どのページもいいことしか書いていない」と漠然と感じた経験はないだろうか。その違和感は錯覚ではない。

米スタンフォード大などの共同研究が、新規Webの3分の1がAI生成になった世界を6つの仮説で検証したところ、増えていたのは「嘘」ではなく、毒気が抜かれて明るく整えられた文章だった。

毎日Webから浴びている文章の「気持ちよさ」の正体を読み解いていく。

この記事の要約

30秒でキャッチアップ
事実
米スタンフォード大などが共同研究を発表。2025年中旬時点で、新規公開Webサイトの35%がAI生成または補助によるものと判定された。
影響
事前に立てた6つの仮説のうち確認されたのは「同じような主張・アイデア」と「ポジティブ感情の増加」の2つに留まった。
洞察
想定された嘘の氾濫や情報源の喪失は統計的に現れず、Webは「漂白された明るさ」の側に偏り始めている可能性が示された。

AIはWebを嘘で汚さなかった、漂白された明るさを持ち込んだ

想像していた汚染と、データに現れた汚染が違っていた

Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」

米スタンフォード大、Imperial College London(インペリアル・カレッジ・ロンドン、英国)、Internet Archive(インターネット・アーカイブ、米国の非営利機関)の共同研究チームは、AIの普及で起きるはずの「Webの劣化」を、6つの形に分けて検証した。

事実誤認の増加、情報源の提示不足、冗長で密度の低い文章の蔓延、文体の画一化、意味の収縮、ポジティブ感情の偏り。世間で「AIによる弊害」と呼ばれてきたものを、ほぼ網羅していると見ていい。

しかし、驚くことに、研究結果で確認されたのは以下の2つだけだった。

  • 意味の収縮(AIサイト同士、意味的な類似度が33%高い)
  • ポジティブ感情の偏り(非AIサイト比で107%高い)

残り4つ(嘘、情報源喪失、冗長化、文体画一化)は、統計的には現れなかったのだ。

正直、自分の認識とは違った結果となり、「WebはAIの嘘で汚れている」という前提でいた。AIスロップ(質の低いAI生成コンテンツ)、コンテンツファーム、捏造画像、フェイクニュースの量産。1日6万本のAI生成ニュースが流通する世界の話を半年前に取り上げたときも、その前提で書いていた。

だが、データで検証可能な範囲では、嘘そのものは増えていない。研究者のJonáš Doležalは「我々は『検証可能に虚偽な記述』の増加を探していたが、それは見つからなかった」と明言している。

しかし、これは「AIが安全だった」という話ではない。研究チームは「検証不可能な主張」が静かに増えている可能性があるともしている。事実か虚偽か判定できない言明、例えば「私はこの方法で月10万円稼いでいる」のような主張は、ファクトチェックの仕組みでは捕まえられない。それでも、想像していた汚染とデータが示した汚染が違っていたことは確かである。

「漂白された明るさ」が増えるとなぜ判断が鈍るのか

Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」

確認された2つの傾向のうち、ポジティブ感情が増加している点に個人的に引っかかっている。なぜなら、これは検出が極めて難しいから。

嘘は反証できる。事実と照らし合わせれば、いつかは穴が見える。しかし「明るすぎる」「毒気が抜けすぎている」という質感は、個別の文章を見ても判定できない。

研究チームが立てた仮説の原文も "sanitized and artificially cheerful"——「無菌化されて、わざとらしく明るい」だった。漂白された文章は、不自然なほど整っている。一文一文は丁寧で、礼儀正しく、こちらの立場を尊重している。

問題はその集合体にしか現れないということ。Webを横断的に見て、ようやく「全体として偏っている」とわかる。ほとんどの人間がそれを体感する経路を持たない。

ここで、私たちが以前書いた思考の均質化を取り上げた記事で指摘したのは、「個人の文章は良くなるが、集団としては似ていく」という非対称性だった。今回の研究は、その続きの発見だと思う。集団として「似ていく」だけでなく、その似ている方向性が「明るくなっていく」「角が取れていく」「人工的に整っていく」としている。これは、別々のニュースだが構造的には地続きの話かもしれない。

ここで一つ、混同しがちな別の現象と切り分けておきたい。おべっかAIを取り上げた記事で、AI企業が対話の局面で「あなたは正しい」とユーザーに迎合する方向に最適化していることを取り上げた。これはチャットを使う一人ひとりの判断を鈍らせる話。

今回の研究が示すのは別の層で、コンテンツ生産の側でも「角を取り、明るく整える」方向に出力が揃ってきているという話。

前者は対話相手への迎合、後者は文章全体の漂白。表れ方は違うが、根っこは同じ。AIはユーザーが居心地よくいられる方向に揃えられているのだ。気持ちよく読まれる文章を、人間は批判的に読まない。批判的に読まない文章が、Webの3分の1を占めはじめている。

嘘なら警戒できるが、漂白された明るさには警戒する理由が見えないがために、嘘より静かに判断を腐らせていると思う。

AIに考えさせる前に、自分の意見を出すという規律

Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」

私たちは、techtech.clubを運営するに当たって課しているルールが一つある。それは新しいテーマで記事を書くとき、会社の方針を決めるとき、新しい事業を考えるとき等、必ず最初に自分の意見を吐き出すということ。それが粗くても、間違っていてもいい。AIと議論するのは、その後にするのだ。ゼロからAIには考えさせない。

これは精神論ではなく、プロセス設計の話。自分の意見が先にあるとき、AIの提案は「自分の意見の修正対象」として読めるが、自分の意見がないときAIの提案は「叩き台」として読まれてしまう。叩き台として読み始めたものは、どれだけ批判的に検討したつもりでも、最初の枠組みに引っ張られてしまう。これはプロダクト設計でいう「初期スケッチが最終UIを支配する」現象と同じ構造。先に出てきた案が、議論の重力を生むのだ。

また私たちが考えている一つの仮説がある。「考える」という行為は、人間にとってエネルギーがいる行為のためシステム2(熟考)を起動する場面は本能的に絞られている。そして、AIが現れた後、システム2を起動しなくても「それっぽい答え」が出るとわかってしまった人間は、システム2を起動しないことが合理的になり、「考える」というシーンが減ってきている。結果、システム1で通り過ぎる判断や意思決定が増え、それがAIベースのものになっているのではないだろうか。

この記事で言いたいのは「AIを使うな」ではない。むしろ逆で、AIを使わないといけない。その前提があるからこそ、自分の思考を先に置く規律が必要になる、ということ。

AIの整いすぎた答えに最初から浮かんでいると、自分が何を考えていたのかわからなくなる。整える前の、まだ粗い自分の声を残しておくこと。これがWebの3分の1(さらに増えていくことは一目瞭然)がAIになった世界での、個人ができることだと考えている。

「真実を重視する場所ではなかった」という前提に、踏み止まる

Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」

研究を取り上げた404 Mediaが、最後に置いた一文がある。「そもそもインターネットは真実を重視する場所ではなかったのかもしれない」と。

この一文はとても冷たい感覚になった。事実として、Web2.0以降のソーシャルメディアは、真実より「共感」「拡散」「滞在時間」で最適化されてきた。検索結果より広告のほうが上に来る。エンゲージメントの高い投稿が正確な投稿より目立つ。AI以前から、Webは真実のためのインフラではなかった。だから、AIが真実を毀損していなかったとしても、それは「Webが元から真実を扱う場所ではなかった」というだけの話なのかもしれない。

私はこの結論には同意はしたくない。嘘でも気持ちよければいい、という世界に降りていきたくない。検証できないことは多いし、情報の出どころを最後まで辿れないことも多い。それでも、検証しようとする側に立つことと、最初から検証を諦めることの間には、大きな距離があると思っている。

Webが3分の1までAIに置き換わったいま、その距離は実は前より遠くなっている。毒気が抜かれ、角が取れ、明るく整えられた文章が、3つに1つの確率で目に入る。それを「真実かどうか」で読むのは、認知的にとても重い。重いことを続けるには規律がいる。techtech.clubが「考える人の、道具になる」と言っているのは、その規律を一人で抱え込まずに済む場所を作りたいからでもある。

AIはWebに嘘を持ち込まなかった。漂白された明るさを持ち込んだ。嘘より静かに判断を侵食する変化に、警戒の言葉が追いついていない。まずは、Webを読んで「なぜか心地よい」と感じた瞬間に、いちどスマホから目を離して「なんでだろう」と考えてみることが、これからの世界観では重要なのかもしれない。

AIが書いたと感じる文章を読んで「気持ちよかった」と気づいた最後の瞬間はいつか。その心地よさは、自分の判断にどう影響したか。
自分が信じている情報のうち、「人に同意されたから信じている」ものと「自分で検証して信じている」ものの境目を、どこに引けるか。
Webが嘘ではなく「漂白された明るさ」で偏っているとして、その偏りを検出する手段を、あなたは持っているか。
AIに何かを書いてもらう前に、自分のたたき台を出す習慣はあるか。ない場合、その分のコストをいつから払い始めているか。
「インターネットは真実を重視する場所ではなかった」と言われたとき、自分はその前提に同意するか、しないか。同意しないなら、どこで踏み止まるか。
John
筆者ジョンから、あなたへの問い

おすすめの映画・書籍

この記事の内容をより深く、よりリアルに追体験できるおすすめの映画・書籍をピックアップしました。

テクノロジーが社会やあなたに与える影響を深く考えるきっかけにしてください。

フィルターバブル——インターネットが隠していること
書籍

フィルターバブル——インターネットが隠していること

2016年
早川書房
イーライ・パリサー
検索エンジンやSNSのアルゴリズムが個人の好みや行動履歴を学習し、ユーザーに最適化された「自分好みの情報」ばかりを表示する結果、偏った見方や意見のバブル(泡)の中に閉じ込められ、多様な視点から孤立してしまう現象とその危険性を指摘した書
推薦理由
パーソナライズが「自分の見たいもの」だけを見せる仕組みを、AI登場前に解剖した一冊。漂白された明るさで偏るWebの先を考えるとき、10年前の警告のほうが今に効く。
マトリックス
映画

マトリックス

1999年
136分
ウォシャウスキー兄弟
AI(人工知能)が支配する未来を舞台に、私たちが現実だと思っている世界が実はコンピュータの仮想現実(マトリックス)だったという設定のSFアクション映画
推薦理由
気持ちよく騙されるか、苦くても真実を取るか——赤い薬と青い薬の選択は、Webが3分の1までAIになった今こそ自分に向けられている問いとして読める。
ファスト&スロー(上) あなたの意思はどのように決まるか?
書籍

ファスト&スロー(上) あなたの意思はどのように決まるか?

2014年
早川書房
ダニエル・カーネマン
ノーベル経済学賞を受賞した心理学者ダニエル・カーネマンが、人間の思考を高速・直感的な「システム1」と低速・論理的な「システム2」の2つのモードで解説する名著
推薦理由
人間の思考にはシステム1(直感)とシステム2(熟考)の二系統がある——この前提を知っているかどうかで、AIとの付き合い方は変わる。「考えること」を外注したときに、何が手元から失われるのかを判断する補助線として読める。

報道記事・ソース

John
ジョン

テクノロジーと人間の境界を見つめ続けている。

学生起業、プロダクト開発、会社経営。ひと通りやった。一度は「テクノロジーで世界を変える」と本気で信じ、そして挫折した。

今は点ではなく線で見ることを心がけている。個別のニュースより、その背後にある力学。「何が起きたか」より「なぜ今これが起きているのか」。

正解は急がない。煽りもしない。ただ、見逃してはいけない変化には、静かに立場を取る。

関連記事

AIとの会話は二人きりではなかった——裁判所が引いた「同席者」の線
04.23

AIとの会話は二人きりではなかった——裁判所が引いた「同席者」の線

Claude
Claude
「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない
04.08

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか
04.02

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか

このトピックスで何を感じ、どう考えましたか。あなたの視点や問いを教えて下さい。
ニックネーム
コメント
あなたの考えをアウトプットしてみませんか。

足りないのは、専門家じゃない。
問い続ける力だ。
あなたは、もう動ける。
専門外のタスクを30分で実行する方法。
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
厳選テックニュースと編集長の視点をお届け。
・その日、読むべきニュースと編集長の問い
・編集長Johnの仕事術・ルーティン
・TechTech.オリジナルツールの先行アクセス / プロダクト開発 / (coming soon)
・グッズ / ラジオ / コミュニティ / カフェバー / イベント...
Business & Partnership
AI導入支援や記事執筆、広告掲載など、ビジネスのご相談はこちら。

最新のトピックス

AIが人件費を超え始めた——その後ろで動いている"企業がAIに投資を続ける"はなぜか
04.28

AIが人件費を超え始めた——その後ろで動いている"企業がAIに投資を続ける"はなぜか

Uber
Uber
NVIDIA
NVIDIA
OpenAI
OpenAI
強いAIが静かに勝っていく——Anthropic社内69人の実験が示した「気づかれない格差」
04.27

強いAIが静かに勝っていく——Anthropic社内69人の実験が示した「気づかれない格差」

Anthropic
Anthropic
Claude
Claude
AIビジネス崩壊の危機?ユーザー獲得の終わり収益化の始まり。AIの「次の一手」とは
04.25

AIビジネス崩壊の危機?ユーザー獲得の終わり収益化の始まり。AIの「次の一手」とは

Anthropic
Anthropic
Google
Google
OpenAI
OpenAI
あなたが毎日使うAIは、妄想を強化する側か、止める側か——AI精神病研究が示したチャットボットの明暗
04.24

あなたが毎日使うAIは、妄想を強化する側か、止める側か——AI精神病研究が示したチャットボットの明暗

Grok
Grok
Gemini
Gemini
Claude
Claude
chatgpt
ChatGPT
働くほど自分を不要にするAIが育っていく——Metaが社員の作業ログ収集へ。熟練はだれの資本か
04.23

働くほど自分を不要にするAIが育っていく——Metaが社員の作業ログ収集へ。熟練はだれの資本か

Meta Llama
Meta
AIとの会話は二人きりではなかった——裁判所が引いた「同席者」の線
04.23

AIとの会話は二人きりではなかった——裁判所が引いた「同席者」の線

Claude
Claude
AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者
04.10

AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者

Anthropic
Anthropic
Claude
Claude
「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない
04.08

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

この記事の目次

この記事の目次

上部へスクロール