150万人がChatGPTに背を向けた——Claudeはイランの標的を選んでいた

先週末、150万人以上がChatGPTの解約運動(QuitGPT)に参加した。Anthropicが大規模監視と自律兵器へのAI利用を拒否したことへの、消費者の意思表明だ。受け皿となったClaudeはApp Storeで首位に立った。
だが同じ週末、WSJは米軍がClaudeをイランへの空爆の標的選定に使用していたと報じた。消費者が「倫理」で選んだツールの全貌は、消費者からは見えていない。
Executive Brief
Contents ——公式発表・一次情報
Summary ——何が起きている?
- WSJは米中央軍がClaudeをイランの空爆で標的選定に使用したと報じた。
- QuitGPT運動は150万人超が参加、3月3日にOpenAI本社前で抗議を予定。
- Claudeは2ヶ月前の42位からApp Store首位に上昇、無料ユーザーは年初比60%増。
- AnthropicはChatGPT等からの会話記憶インポート機能を無料提供開始した。
Perspective ——TECHTECH.の視点
消費者が「投票所」に向かった
先週、AIチャットボットの市場で異例の現象が起きた。OpenAIのペンタゴン契約に反発した消費者が、150万人規模でQuitGPT運動に参加した(euronews.com報道)。受け皿になったのがAnthropicのClaudeだ。2ヶ月前にApp Storeで42位だったClaudeは、土曜日に首位まで駆け上がった(Fortune報道)。日次の新規登録は4倍に急増し、無料ユーザーは年初から60%以上増加、有料購読者は今年に入って倍増している。AnthropicはChatGPT、Gemini、Copilotの会話履歴をClaudeに移行するインポートツールを公開し、無料プランでもメモリ機能を開放した(Engadget報道)。
これは「アプリの人気ランキング」の話ではない。消費者がAIツールの選択を通じて、企業の倫理的姿勢に「投票」した大規模事例だ。食品のフェアトレード認証や衣料品のサステナビリティラベルと同じ構造——「何を使うか」で価値観を表明する行為——がAI市場に持ち込まれた。
だが、ここで一つの事実が見過ごされている。
Anthropicが拒否したものと、許容しているもの
消費者がClaudeを選んだ根拠は明確だ。Anthropic CEOアモデイは「良心に照らして応じることはできない」と述べ、ペンタゴンの要求を拒否した(Anthropic公式声明)。消費者はこの姿勢を「軍事利用に反対するAI企業」と読み取った。
しかし、Anthropicが拒否したのは2項目だ。アメリカ国民に対する大規模監視と、完全自律型兵器への利用。それ以外の軍事利用については、拒否していない。
WSJの報道によれば、Claudeは米中央軍(CENTCOM)でイランへの空爆における情報分析、戦闘シミュレーション、標的選定に使用されていた(Futurism、Decrypt等が引用)。Anthropicは2024年6月から政府の機密ネットワークにモデルを配備した最初のフロンティアAI企業であり、自社の声明で「拒否した2つの制限は、これまで一度も政府のミッションに影響を与えたことがない」と述べている。裏を返せば、それ以外の軍事用途では制約なく運用されていたことを意味する。
ピューリッツァー賞受賞ジャーナリストのスペンサー・アッカーマンは、Anthropicの倫理的境界線が「外国人の監視パノプティコンの構築」を除外している点を指摘した(Futurism報道)。大規模監視の禁止は「アメリカ国民の」データ収集に対する制限であり、外国人への標的選定とは別の問題として処理されている。
前回記事でOpenAIの「responsibility(事後責任)」とAnthropicの「oversight(事前介入)」という時制の違いを指摘した。その前の記事では、業界の連帯が倫理的共感ではなく先例への恐怖から生まれた構造を書いた。今回見えてきたのは、その両方のさらに手前にある問題だ——消費者が「倫理的姿勢」として評価しているものの解像度が、実態と大きくずれている。
→ Anthropicを罰したら業界が団結した——「恐怖による分断」が逆転した日
「選ぶ」ことの構造的な限界
元OpenAI地政学チーム責任者のサラ・ショーカーは、2月末に発表した論考で、主要AI企業のいずれも軍事利用に関する一貫した方針を持っていないと指摘した。企業のリーダーシップが「柔軟性(optionality)」を確保するために意図的に曖昧な文言を使っている、と述べている(Shoker, Substack)。OpenAIは2021年に軍事利用を完全禁止していたが、2024年に文言を変更し、現在は「あらゆる合法的目的」に利用可能だ。Anthropicのアモデイも「フロンティアAIモデルの信頼性が十分に高くなれば」自律型兵器への態度が変わりうることを示唆している(THE DECODER報道)。今日の「拒否」は、明日の製品仕様によって変わりうる。
「民主主義は、2億ドルを燃やす余裕のあるCEOの善意では存続できない」——ショーカーのこの一文は、消費者投票の構造的限界を端的に表している。消費者がChatGPTを解約してClaudeに乗り換えるとき、評価しているのは「CEOの姿勢」だ。アモデイの拒否は原則的に見え、アルトマンの契約は迎合的に見える。だが、企業の倫理的姿勢がCEOの判断に依存している構造自体が、消費者投票の基盤を不安定にしている。
AIにおける「倫理的消費」には、食品や衣料品とは異なる構造的困難がある。コーヒー豆なら、フェアトレード認証を通じて生産工程を追跡できる。衣料品なら、サプライチェーンの透明性を第三者が検証できる。だがAIモデルは、同一のモデルがあらゆる文脈で使われる。消費者が日常の検索やコード生成に使うClaudeと、米中央軍が標的選定に使うClaudeは、同じモデルの異なるインスタンスだ。消費者が「正しいツール」を選んでも、そのツールの用途を消費者は選べない。
「拒否」は可視化され、「許容」は不可視のまま
消費者の投票は無意味なのか。そうとも言い切れない。150万人が動いた事実は、AI企業が倫理的姿勢を市場価値として無視できなくなったことを意味する。「倫理」がプロダクトの競争優位になりうることを、市場が実証した。
だが同時に、この構造には非対称性がある。消費者に見えるのは「何を拒否したか」であり、「何を許容しているか」ではない。Anthropicが大規模監視を拒否した事実はニュースになり、消費者の行動を駆動した。しかし、Claudeがイランの標的選定に使われている事実は、消費者の購買判断にほとんど反映されていない。
この非対称性は構造的だ。「拒否」は宣言的行為であり、プレスリリースとCEOの発言を通じて可視化される。「許容」は契約条項と運用実態の中に埋もれ、報道されて初めて表面化する。消費者は、この情報の非対称性の中で「投票」している。
以前の記事で「安全基準の実効性は、原則の有無ではなく文言の弾力性に左右される」と書いた。今回の展開が示しているのは、同じ構造が消費者の側にも存在するということかもしれない。消費者が「倫理的だ」と評価するもの自体が、企業が何を可視化し何を不可視に置くかによって形成されている。150万人の投票は、AI市場に新しい力学を生んだ。だがその投票が何を変え、何を変えられないのかは、まだ判然としない。

Drill Down ——もっと掘り下げる

おいしいコーヒーの真実

アイ・イン・ザ・スカイ 世界一安全な戦場
Context Timeline ——報道記事
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。















