あなたの文章はまだ「あなたの文章」か——130超の研究が示す「思考の均質化」の構造

ChatGPTやClaudeで文章を整え、企画書の下書きを任せ、メールの返信を生成する。一人ひとりの生産性は確かに上がった。だが、その裏側で何が起きているのか。南カリフォルニア大学の研究チームが130超の研究を横断分析し、AIチャットボットが人間の表現と思考を均質化する構造を学術誌で指摘した。
Executive Brief
Contents ——公式発表・一次情報
Summary ——何が起きている?
- AIが生成する文章は人間が書いた文章より多様性が低く、利用者の文体や視点を均一化させる傾向がある。
- GPT-4を使った創作実験では個々の作品の質は向上したが、作品同士の類似度が上昇した。
- AIは論理的な段階的推論を偏重し、直感的・抽象的な推論スタイルを抑制する傾向がある。
- 研究チームは訓練データの多様性向上を提言しているが、利用構造そのものへの解決策は示されていない。
Perspective ——TECHTECH.の視点
均質化はAI以前から歓迎されてきた
多くのメディアがこの研究を「AIの危険性」として報じている。だが、少し立ち止まる必要がある。
思考の均質化は、AIが発明したものではない。ビジネスの世界では、フレームワーク、テンプレート、ベストプラクティスがまさにその役割を担ってきた。SWOT分析、3C、ロジックツリー。誰もが同じ型で考えることを「効率的」と呼び、組織はそれを歓迎した。コンサルティングファームが売ってきたのは、突き詰めれば「均質化された思考のパッケージ」だった。
AIはそのスピードと規模を変えただけだ。フレームワークは年単位で広がったが、ChatGPTは週単位で数億人の文章を似た方向に寄せる。
個人の得が集団の損に変わる構造
この研究で注目すべき発見は、「個人の文章は良くなるが、集団の文章は似ていく」という非対称性だ。Science Advances誌に掲載された実験(Doshi & Hauser, 2024)では、GPT-4を使った作家の作品は個別には質が高いと評価された。しかし、作品同士を比較すると、AIを使わなかったグループより類似度が高かった。
一人の選択としては合理的だ。AIに整えてもらえば、より良い文章になる。だが全員がそうすると、集団としての思考の幅が狭まる。これは環境経済学で言う「共有地の悲劇(コモンズの悲劇)」と同じ構造をしている。一人ひとりが合理的に水を使った結果、井戸が枯れる。一人ひとりが合理的にAIを使った結果、「集団の知恵」が枯れる。
「気づけない」ことが真の問題
フレームワークによる均質化には、少なくとも自覚があった。「SWOTで分析しよう」と言ったとき、自分が特定の型にはめて思考していることは認識できた。AIによる均質化は構造が違う。
先週配信した記事では、AIの利用が個人の認知を疲弊させる「脳の焼きつき」を取り上げた。今回明らかになったのは、もう一つの隠れたコストだ。AIが提案する「ちょうどいい」文章を選ぶとき、自分の表現がどれだけ削られているかを、利用者は感じ取れない。研究チームの筆頭著者Sourati氏は「利用者は自分で文章を書く代わりに、AIが提案する『十分にいい』選択肢を選ぶようになる」と指摘している。「十分にいい」の積み重ねが、気づかないうちに「全員同じ」へ収束していく。
多様性は「守る」ものなのか、「壊す」ものなのか
研究チームは「訓練データの多様性を高めるべきだ」と提言する。それ自体は正しい。だが構造的な問いはもう一段深いところにある。
ジェームズ・スロウィッキーが書籍『「みんなの意見」は案外正しい』で示したように、集団の知恵が機能するには2つの条件がいる。「多様性」と「独立性」だ。全員が異なる情報を持ち、互いに影響されずに判断すること。AIは、この2つを同時に壊す。全員が同じモデルから出力を得ることで多様性が消え、AIの提案に依存することで独立性が失われる。
訓練データを改善しても、同じモデルを数億人が使う構造が変わらない限り、均質化は止まらない。問題はAIの中身ではなく、AIの使われ方にある。そしてこの構造を変える動機が個人の側にない。なぜなら、一人ひとりにとってAIは確かに「便利」だからだ。

Drill Down ——もっと掘り下げる

her/世界でひとつの彼女
Context Timeline ——報道記事
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。














