AIで、一人の限界を超えるメディアプラットフォーム
150万人がChatGPTに背を向けた——Claudeはイランの標的を選んでいた
2026.03.03

150万人がChatGPTに背を向けた——Claudeはイランの標的を選んでいた

Claude
Claude
chatgpt
ChatGPT
150万人がChatGPTに背を向けた——Claudeはイランの標的を選んでいた

先週末、150万人以上がChatGPTの解約運動(QuitGPT)に参加した。Anthropicが大規模監視と自律兵器へのAI利用を拒否したことへの、消費者の意思表明だ。受け皿となったClaudeはApp Storeで首位に立った。

だが同じ週末、WSJは米軍がClaudeをイランへの空爆の標的選定に使用していたと報じた。消費者が「倫理」で選んだツールの全貌は、消費者からは見えていない。

Executive Brief

30 SEC READ
FACT
Anthropicの大規模監視・自律兵器拒否を契機にQuitGPT運動に150万人超が参加しClaudeがApp Store首位に立つ一方、WSJは米中央軍がClaudeをイランへの空爆で標的選定に使用していたと報じた。
IMPACT
AI利用における消費者の「倫理的選択」が、ツールの軍事利用実態と構造的に切断されていることが表面化した。
INSIGHT
消費者が企業の「拒否」を評価し「許容」を把握できない情報の非対称性は、AI企業の倫理的姿勢の市場評価が企業側の情報設計に依存する構造を示唆している。

Summary ——何が起きている?

  • WSJは米中央軍がClaudeをイランの空爆で標的選定に使用したと報じた。
  • QuitGPT運動は150万人超が参加、3月3日にOpenAI本社前で抗議を予定。
  • Claudeは2ヶ月前の42位からApp Store首位に上昇、無料ユーザーは年初比60%増。
  • AnthropicはChatGPT等からの会話記憶インポート機能を無料提供開始した。

Perspective ——TECHTECH.の視点

● 「拒否」は見えた——「許容」は見えなかった

消費者が「投票所」に向かった

先週、AIチャットボットの市場で異例の現象が起きた。OpenAIのペンタゴン契約に反発した消費者が、150万人規模でQuitGPT運動に参加した(euronews.com報道)。受け皿になったのがAnthropicのClaudeだ。2ヶ月前にApp Storeで42位だったClaudeは、土曜日に首位まで駆け上がった(Fortune報道)。日次の新規登録は4倍に急増し、無料ユーザーは年初から60%以上増加、有料購読者は今年に入って倍増している。AnthropicはChatGPT、Gemini、Copilotの会話履歴をClaudeに移行するインポートツールを公開し、無料プランでもメモリ機能を開放した(Engadget報道)。

これは「アプリの人気ランキング」の話ではない。消費者がAIツールの選択を通じて、企業の倫理的姿勢に「投票」した大規模事例だ。食品のフェアトレード認証や衣料品のサステナビリティラベルと同じ構造——「何を使うか」で価値観を表明する行為——がAI市場に持ち込まれた。

だが、ここで一つの事実が見過ごされている。

Anthropicが拒否したものと、許容しているもの

消費者がClaudeを選んだ根拠は明確だ。Anthropic CEOアモデイは「良心に照らして応じることはできない」と述べ、ペンタゴンの要求を拒否した(Anthropic公式声明)。消費者はこの姿勢を「軍事利用に反対するAI企業」と読み取った。

しかし、Anthropicが拒否したのは2項目だ。アメリカ国民に対する大規模監視と、完全自律型兵器への利用。それ以外の軍事利用については、拒否していない。

WSJの報道によれば、Claudeは米中央軍(CENTCOM)でイランへの空爆における情報分析、戦闘シミュレーション、標的選定に使用されていた(Futurism、Decrypt等が引用)。Anthropicは2024年6月から政府の機密ネットワークにモデルを配備した最初のフロンティアAI企業であり、自社の声明で「拒否した2つの制限は、これまで一度も政府のミッションに影響を与えたことがない」と述べている。裏を返せば、それ以外の軍事用途では制約なく運用されていたことを意味する。

ピューリッツァー賞受賞ジャーナリストのスペンサー・アッカーマンは、Anthropicの倫理的境界線が「外国人の監視パノプティコンの構築」を除外している点を指摘した(Futurism報道)。大規模監視の禁止は「アメリカ国民の」データ収集に対する制限であり、外国人への標的選定とは別の問題として処理されている。

前回記事でOpenAIの「responsibility(事後責任)」とAnthropicの「oversight(事前介入)」という時制の違いを指摘した。その前の記事では、業界の連帯が倫理的共感ではなく先例への恐怖から生まれた構造を書いた。今回見えてきたのは、その両方のさらに手前にある問題だ——消費者が「倫理的姿勢」として評価しているものの解像度が、実態と大きくずれている。

→ Anthropicを罰したら業界が団結した——「恐怖による分断」が逆転した日

「選ぶ」ことの構造的な限界

元OpenAI地政学チーム責任者のサラ・ショーカーは、2月末に発表した論考で、主要AI企業のいずれも軍事利用に関する一貫した方針を持っていないと指摘した。企業のリーダーシップが「柔軟性(optionality)」を確保するために意図的に曖昧な文言を使っている、と述べている(Shoker, Substack)。OpenAIは2021年に軍事利用を完全禁止していたが、2024年に文言を変更し、現在は「あらゆる合法的目的」に利用可能だ。Anthropicのアモデイも「フロンティアAIモデルの信頼性が十分に高くなれば」自律型兵器への態度が変わりうることを示唆している(THE DECODER報道)。今日の「拒否」は、明日の製品仕様によって変わりうる。

「民主主義は、2億ドルを燃やす余裕のあるCEOの善意では存続できない」——ショーカーのこの一文は、消費者投票の構造的限界を端的に表している。消費者がChatGPTを解約してClaudeに乗り換えるとき、評価しているのは「CEOの姿勢」だ。アモデイの拒否は原則的に見え、アルトマンの契約は迎合的に見える。だが、企業の倫理的姿勢がCEOの判断に依存している構造自体が、消費者投票の基盤を不安定にしている。

AIにおける「倫理的消費」には、食品や衣料品とは異なる構造的困難がある。コーヒー豆なら、フェアトレード認証を通じて生産工程を追跡できる。衣料品なら、サプライチェーンの透明性を第三者が検証できる。だがAIモデルは、同一のモデルがあらゆる文脈で使われる。消費者が日常の検索やコード生成に使うClaudeと、米中央軍が標的選定に使うClaudeは、同じモデルの異なるインスタンスだ。消費者が「正しいツール」を選んでも、そのツールの用途を消費者は選べない。

「拒否」は可視化され、「許容」は不可視のまま

消費者の投票は無意味なのか。そうとも言い切れない。150万人が動いた事実は、AI企業が倫理的姿勢を市場価値として無視できなくなったことを意味する。「倫理」がプロダクトの競争優位になりうることを、市場が実証した。

だが同時に、この構造には非対称性がある。消費者に見えるのは「何を拒否したか」であり、「何を許容しているか」ではない。Anthropicが大規模監視を拒否した事実はニュースになり、消費者の行動を駆動した。しかし、Claudeがイランの標的選定に使われている事実は、消費者の購買判断にほとんど反映されていない。

この非対称性は構造的だ。「拒否」は宣言的行為であり、プレスリリースとCEOの発言を通じて可視化される。「許容」は契約条項と運用実態の中に埋もれ、報道されて初めて表面化する。消費者は、この情報の非対称性の中で「投票」している。

以前の記事で「安全基準の実効性は、原則の有無ではなく文言の弾力性に左右される」と書いた。今回の展開が示しているのは、同じ構造が消費者の側にも存在するということかもしれない。消費者が「倫理的だ」と評価するもの自体が、企業が何を可視化し何を不可視に置くかによって形成されている。150万人の投票は、AI市場に新しい力学を生んだ。だがその投票が何を変え、何を変えられないのかは、まだ判然としない。

→ 「同じレッドライン」の文法が違う——OpenAIがペンタゴンに渡した言葉の弾力性

あなたがAIツールを選ぶとき、「そのツールが他にどう使われているか」をどこまで調べているか。食品や衣料品の購買と比べて、AIの「倫理的消費」はどう違うか。
Anthropicが拒否した2つの用途——大規模監視と自律兵器——以外の軍事利用を、あなたは許容できるか。その線引きの根拠は何か。
あなたが使うAIモデルが、あなたの知らない場所で、あなたが想定しない用途に使われていることを知ったとき、そのツールを使い続けるか。続ける場合と辞める場合、それぞれの根拠は何か。
John
Thought by John
このトピックスで何を感じ、どう考えましたか。あなたの視点や問いを教えて下さい。
ニックネーム
コメント
あなたの考えをアウトプットしてみませんか。

Drill Down ——もっと掘り下げる

おいしいコーヒーの真実
映画

おいしいコーヒーの真実

2006年
78分
マーク・フランシス
私たちが日常的に飲んでいるコーヒーの背後にある、エチオピアなどの生産農家の貧困と、不公平な貿易構造(搾取)の実態を描いたドキュメンタリー映画
推薦理由
エチオピアのコーヒー農家とグローバル市場の構造的断絶を描いたドキュメンタリー。消費者の善意と生産構造の乖離という問題は、20年後のAI市場にも形を変えて存在している。
アイ・イン・ザ・スカイ 世界一安全な戦場
映画

アイ・イン・ザ・スカイ 世界一安全な戦場

2016年
94分
ギャヴィン・フッド
ドローン(無人偵察機)を用いた現代の戦争における倫理的ジレンマや、政治的駆け引きを描いたイギリスの軍事サスペンス映画
推薦理由
ドローン攻撃の標的選定における意思決定プロセスを描いた作品。「人間の関与」がある場合でも、判断の責任がどう分散し曖昧になるかを体感できる。AIが標的選定に加わった現在の構造を考える補助線になる。
監視資本主義: 人類の未来を賭けた闘い
書籍

監視資本主義: 人類の未来を賭けた闘い

2019年
東洋経済新報社
ショシャナ・ズボフ
巨大IT企業が私たちのあらゆる行動や体験をデータとして密かに収集・利用し、個人の自由や民主主義を脅かしながら巨万の富を築く「新たな経済システム」の実態を暴いた警鐘の書
推薦理由
テクノロジー企業がユーザーデータを通じて行動を予測・制御する構造を分析した著作。消費者の「選択」が企業の構造にどこまで及ぶのか——及ばないのか——を考えるための基本文献。

Context Timeline ——報道記事

2026.03.03 04:46
futurism.com
US Military Using Claude to Select Targets in Iran Strikes
2026.03.03 04:46
futurism.com
US Military Using Claude to Select Targets in Iran Strikes
2026.03.03 03:55
fortune.com
Anthropic's Claude overtakes ChatGPT in App Store as users boycott over OpenAI's Pentagon contract
2026.03.02 19:51
euronews.com
'Cancel ChatGPT': AI boycott surges after OpenAI-Pentagon military deal
2026.03.02 06:07
decrypt.co
Anthropic's AI Used in Iran Strikes After Trump Moved to Cut Ties: WSJ
2026.03.01 10:21
wsj.com
U.S. Strikes in Middle East Use Anthropic, Hours After Trump Ban
John
John

テクノロジーと人間の境界を見つめ続けている。

学生起業、プロダクト開発、会社経営。ひと通りやった。一度は「テクノロジーで世界を変える」と本気で信じ、そして挫折した。

今は点ではなく線で見ることを心がけている。個別のニュースより、その背後にある力学。「何が起きたか」より「なぜ今これが起きているのか」。

正解は急がない。煽りもしない。ただ、見逃してはいけない変化には、静かに立場を取る。

足りないのは、専門家じゃない。
問い続ける力だ。
あなたは、もう動ける。
専門外のタスクを30分で実行する方法。
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
厳選テックニュースと編集長の視点をお届け。
・その日、読むべきニュースと編集長の問い
・編集長Johnの仕事術・ルーティン
・TechTech.オリジナルツールの先行アクセス / プロダクト開発 / (coming soon)
・グッズ / ラジオ / コミュニティ / カフェバー / イベント...
Business & Partnership
AI導入支援や記事執筆、広告掲載など、ビジネスのご相談はこちら。

LATEST UPDATES

AIの出力を「信じるしかない」時代は終わるのか——エネルギーの漏れが嘘を暴く
03.08

AIの出力を「信じるしかない」時代は終わるのか——エネルギーの漏れが嘘を暴く

AI専門記者がAIに騙された——Ars Technica捏造引用事件が暴く「検証なき効率化」の構造
03.07

AI専門記者がAIに騙された——Ars Technica捏造引用事件が暴く「検証なき効率化」の構造

AIはIT職の業務の94%を加速できる——だが実際に使われているのは33%だった
03.07

AIはIT職の業務の94%を加速できる——だが実際に使われているのは33%だった

Anthropic
Anthropic
AIは仕事を楽にしたか——ハイパフォーマーほど「脳が焼ける」という1,500人調査の研究結果
03.07

AIは仕事を楽にしたか——ハイパフォーマーほど「脳が焼ける」という1,500人調査の研究結果

データセンターが爆撃され、建設のために人が切られる——AIインフラの物理的代償が可視化された
03.07

データセンターが爆撃され、建設のために人が切られる——AIインフラの物理的代償が可視化された

AWS
AWS
Amazon
Amazon
なぜ人はAIに相談するのに、AIには財布を開かないのか
03.06

なぜ人はAIに相談するのに、AIには財布を開かないのか

chatgpt
ChatGPT
マニュアルを作る側から、マニュアルを実行する側へ——GPT-5.4は何を変えたのか
03.06

マニュアルを作る側から、マニュアルを実行する側へ——GPT-5.4は何を変えたのか

chatgpt
ChatGPT
なぜPentagonはClaudeを使いながらAnthropicを排除したのか——ラベルの本当の意味
03.06

なぜPentagonはClaudeを使いながらAnthropicを排除したのか——ラベルの本当の意味

Anthropic
Anthropic
Claude
Claude
Index

Index

上部へスクロール