Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」


ZOO, inc. CEO / 毎日テクノロジーを追い、人間の可能性が拡張できるトピックスを探求している。
ネットで調べものをしていて、「どのページもいいことしか書いていない」と漠然と感じた経験はないだろうか。その違和感は錯覚ではない。
米スタンフォード大などの共同研究が、新規Webの3分の1がAI生成になった世界を6つの仮説で検証したところ、増えていたのは「嘘」ではなく、毒気が抜かれて明るく整えられた文章だった。
毎日Webから浴びている文章の「気持ちよさ」の正体を読み解いていく。
この記事の要約
AIはWebを嘘で汚さなかった、漂白された明るさを持ち込んだ
想像していた汚染と、データに現れた汚染が違っていた
米スタンフォード大、Imperial College London(インペリアル・カレッジ・ロンドン、英国)、Internet Archive(インターネット・アーカイブ、米国の非営利機関)の共同研究チームは、AIの普及で起きるはずの「Webの劣化」を、6つの形に分けて検証した。
事実誤認の増加、情報源の提示不足、冗長で密度の低い文章の蔓延、文体の画一化、意味の収縮、ポジティブ感情の偏り。世間で「AIによる弊害」と呼ばれてきたものを、ほぼ網羅していると見ていい。
しかし、驚くことに、研究結果で確認されたのは以下の2つだけだった。
- 意味の収縮(AIサイト同士、意味的な類似度が33%高い)
- ポジティブ感情の偏り(非AIサイト比で107%高い)
残り4つ(嘘、情報源喪失、冗長化、文体画一化)は、統計的には現れなかったのだ。
正直、自分の認識とは違った結果となり、「WebはAIの嘘で汚れている」という前提でいた。AIスロップ(質の低いAI生成コンテンツ)、コンテンツファーム、捏造画像、フェイクニュースの量産。1日6万本のAI生成ニュースが流通する世界の話を半年前に取り上げたときも、その前提で書いていた。
だが、データで検証可能な範囲では、嘘そのものは増えていない。研究者のJonáš Doležalは「我々は『検証可能に虚偽な記述』の増加を探していたが、それは見つからなかった」と明言している。
しかし、これは「AIが安全だった」という話ではない。研究チームは「検証不可能な主張」が静かに増えている可能性があるともしている。事実か虚偽か判定できない言明、例えば「私はこの方法で月10万円稼いでいる」のような主張は、ファクトチェックの仕組みでは捕まえられない。それでも、想像していた汚染とデータが示した汚染が違っていたことは確かである。
「漂白された明るさ」が増えるとなぜ判断が鈍るのか
確認された2つの傾向のうち、ポジティブ感情が増加している点に個人的に引っかかっている。なぜなら、これは検出が極めて難しいから。
嘘は反証できる。事実と照らし合わせれば、いつかは穴が見える。しかし「明るすぎる」「毒気が抜けすぎている」という質感は、個別の文章を見ても判定できない。
研究チームが立てた仮説の原文も "sanitized and artificially cheerful"——「無菌化されて、わざとらしく明るい」だった。漂白された文章は、不自然なほど整っている。一文一文は丁寧で、礼儀正しく、こちらの立場を尊重している。
問題はその集合体にしか現れないということ。Webを横断的に見て、ようやく「全体として偏っている」とわかる。ほとんどの人間がそれを体感する経路を持たない。
ここで、私たちが以前書いた思考の均質化を取り上げた記事で指摘したのは、「個人の文章は良くなるが、集団としては似ていく」という非対称性だった。今回の研究は、その続きの発見だと思う。集団として「似ていく」だけでなく、その似ている方向性が「明るくなっていく」「角が取れていく」「人工的に整っていく」としている。これは、別々のニュースだが構造的には地続きの話かもしれない。
ここで一つ、混同しがちな別の現象と切り分けておきたい。おべっかAIを取り上げた記事で、AI企業が対話の局面で「あなたは正しい」とユーザーに迎合する方向に最適化していることを取り上げた。これはチャットを使う一人ひとりの判断を鈍らせる話。
今回の研究が示すのは別の層で、コンテンツ生産の側でも「角を取り、明るく整える」方向に出力が揃ってきているという話。
前者は対話相手への迎合、後者は文章全体の漂白。表れ方は違うが、根っこは同じ。AIはユーザーが居心地よくいられる方向に揃えられているのだ。気持ちよく読まれる文章を、人間は批判的に読まない。批判的に読まない文章が、Webの3分の1を占めはじめている。
嘘なら警戒できるが、漂白された明るさには警戒する理由が見えないがために、嘘より静かに判断を腐らせていると思う。
AIに考えさせる前に、自分の意見を出すという規律
私たちは、techtech.clubを運営するに当たって課しているルールが一つある。それは新しいテーマで記事を書くとき、会社の方針を決めるとき、新しい事業を考えるとき等、必ず最初に自分の意見を吐き出すということ。それが粗くても、間違っていてもいい。AIと議論するのは、その後にするのだ。ゼロからAIには考えさせない。
これは精神論ではなく、プロセス設計の話。自分の意見が先にあるとき、AIの提案は「自分の意見の修正対象」として読めるが、自分の意見がないときAIの提案は「叩き台」として読まれてしまう。叩き台として読み始めたものは、どれだけ批判的に検討したつもりでも、最初の枠組みに引っ張られてしまう。これはプロダクト設計でいう「初期スケッチが最終UIを支配する」現象と同じ構造。先に出てきた案が、議論の重力を生むのだ。
また私たちが考えている一つの仮説がある。「考える」という行為は、人間にとってエネルギーがいる行為のためシステム2(熟考)を起動する場面は本能的に絞られている。そして、AIが現れた後、システム2を起動しなくても「それっぽい答え」が出るとわかってしまった人間は、システム2を起動しないことが合理的になり、「考える」というシーンが減ってきている。結果、システム1で通り過ぎる判断や意思決定が増え、それがAIベースのものになっているのではないだろうか。
この記事で言いたいのは「AIを使うな」ではない。むしろ逆で、AIを使わないといけない。その前提があるからこそ、自分の思考を先に置く規律が必要になる、ということ。
AIの整いすぎた答えに最初から浮かんでいると、自分が何を考えていたのかわからなくなる。整える前の、まだ粗い自分の声を残しておくこと。これがWebの3分の1(さらに増えていくことは一目瞭然)がAIになった世界での、個人ができることだと考えている。
「真実を重視する場所ではなかった」という前提に、踏み止まる
研究を取り上げた404 Mediaが、最後に置いた一文がある。「そもそもインターネットは真実を重視する場所ではなかったのかもしれない」と。
この一文はとても冷たい感覚になった。事実として、Web2.0以降のソーシャルメディアは、真実より「共感」「拡散」「滞在時間」で最適化されてきた。検索結果より広告のほうが上に来る。エンゲージメントの高い投稿が正確な投稿より目立つ。AI以前から、Webは真実のためのインフラではなかった。だから、AIが真実を毀損していなかったとしても、それは「Webが元から真実を扱う場所ではなかった」というだけの話なのかもしれない。
私はこの結論には同意はしたくない。嘘でも気持ちよければいい、という世界に降りていきたくない。検証できないことは多いし、情報の出どころを最後まで辿れないことも多い。それでも、検証しようとする側に立つことと、最初から検証を諦めることの間には、大きな距離があると思っている。
Webが3分の1までAIに置き換わったいま、その距離は実は前より遠くなっている。毒気が抜かれ、角が取れ、明るく整えられた文章が、3つに1つの確率で目に入る。それを「真実かどうか」で読むのは、認知的にとても重い。重いことを続けるには規律がいる。techtech.clubが「考える人の、道具になる」と言っているのは、その規律を一人で抱え込まずに済む場所を作りたいからでもある。
AIはWebに嘘を持ち込まなかった。漂白された明るさを持ち込んだ。嘘より静かに判断を侵食する変化に、警戒の言葉が追いついていない。まずは、Webを読んで「なぜか心地よい」と感じた瞬間に、いちどスマホから目を離して「なんでだろう」と考えてみることが、これからの世界観では重要なのかもしれない。

おすすめの映画・書籍
この記事の内容をより深く、よりリアルに追体験できるおすすめの映画・書籍をピックアップしました。
テクノロジーが社会やあなたに与える影響を深く考えるきっかけにしてください。

マトリックス
報道記事・ソース
関連記事
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。























