AIで、一人の限界を超えるメディアプラットフォーム
Claudeが追放されGrokが軍に入る——「AIセーフティ」が罰になった日
2026.02.25

Claudeが追放されGrokが軍に入る——「AIセーフティ」が罰になった日

Anthropic
Anthropic
Claudeが追放されGrokが軍に入る——「AIセーフティ」が罰になった日
John
by ジョン
自ら思考/判断/決断する

ZOO, inc. CEO / 毎日テクノロジーを追い、人間の可能性が拡張できるトピックスを探求している。

米国防総省とAnthropicの対立が、今週金曜日の期限付き最後通牒に発展した。安全装置を外さなければ契約打ち切りか国防生産法の発動に踏み切ると通告された同じ週、制限なしでの利用に同意したイーロン・マスク率いるxAIのGrokが軍の機密システムに入った。AIセーフティを「売り」にした企業が排除され、「制限なし」を掲げた企業が採用される逆転構造が、1週間で完成した。

この記事の要約

30秒でキャッチアップ
事実
ヘグセス国防長官はAnthropic CEOダリオ・アモデイに対し今週金曜日までにClaudeの用途制限を撤廃しなければ契約打ち切りまたは国防生産法の発動に踏み切ると通告し、同じ週にxAIのGrokが「すべての合法的な目的」での利用に同意して軍の機密システムへの導入が決まった。
影響
米軍の機密AIが「安全装置あり」のClaudeから「制限なし」のGrokへ移行する可能性が現実化し、AI企業が安全基準を設定すること自体が商業的リスクとなる構造が生まれた。
洞察
国家がAI企業に安全装置の撤去を強制する法的手段(国防生産法)の行使を示唆したことは、AI安全性の定義権が企業から国家に移行する転換点を意味する。

Anthropicの「禁止事項」は、米軍が既に制限を設けている領域と重なっている

この対立は、2月14日の「ベネズエラ作戦でのClaude使用判明」、2月17日の「AI安全装置が国防契約を壊す」に続く第3章にあたる。だが今回の最後通牒で、問題の本質がより鮮明に見えてきた。

Anthropicが譲らないと表明している2つの「レッドライン」を正確に見る必要がある。第一に、人間の判断を介さない兵器への利用禁止。第二に、米国市民に対する大規模監視への利用禁止。

ここで見落とされている構造がある。この2つの制限は、Anthropicが独自に発明したルールではない。国防総省指令3000.09は、自律型兵器システムの配備前に「適切な水準の人間の判断を行使できる」ことの実証を求めている。Anthropicの禁止事項ほど厳格ではないが、「人間の判断」を要件とする方向性は同じだ。米国市民の大規模監視については、合衆国憲法修正第4条が不合理な捜索・押収を禁じ、大統領令12333が情報機関による米国人の情報収集に制約を課している。つまりAnthropicの「レッドライン」は、米軍の既存の法的枠組みが既に制限を設けている領域と方向性が重なる。

では国防総省はなぜ、自らの規則と同じ内容を掲げる企業を排除しようとしているのか。

答えは「誰がその線を解釈するか」にある。国防総省指令や憲法の解釈権は政府が持つ。しかしAnthropicの利用規約の解釈権はAnthropicが持つ。同じ制限であっても、解釈権の所在が異なる。国防総省が闘っているのは、制限の「内容」ではなく、民間企業が軍事AIの用途に関する「解釈権」を保持し続けることそのものだ。

そしてGrokの導入が、この構造をさらに際立たせる。xAIは「すべての合法的な目的」での利用に同意した。これは一見、制限を外したように見える。だが「合法的な目的」の範囲を定義するのは政府だ。つまりxAIは制限を外したのではなく、解釈権を政府に完全に委ねた。Anthropicは解釈権を手放さず、xAIは手放した——国防総省が採用したのは後者だ。

国防生産法の持ち出し方にも注目すべきだ。この法律は1950年の朝鮮戦争期に制定され、工場に戦車や弾薬の生産を命じるために設計された。COVID-19のパンデミック時にはマスクや人工呼吸器の生産に適用された。物理的な製造を強制するための法律が、AIモデルの安全機能の撤去という「認知インフラ」の改変に適用されようとしている。政府の法的ツールキットが物理的世界を前提に設計されており、AIという新しいカテゴリに対する制度的空白があることの表れだ。

前回の記事で「AI安全基準を誰が設定する権限を持つのか、制度設計の空白が露呈した」と書いた。その空白を、国防総省は70年前の法律で埋めようとしている。制度がAIに追いついていないのではない。制度がAIを既存のカテゴリに無理やり押し込もうとしている。

2億ドルの契約と国防生産法の脅威を前に、Anthropicは譲歩しない方針だと報じられている。だがこの対立の帰結がどちらに転んでも、一つの構造は確定する。AIセーフティの基準を企業が独自に設定し維持するモデルは、国家安全保障の文脈では持続困難だという前例が生まれる。

Anthropicの「自律型兵器禁止」「大規模監視禁止」は、米軍の既存規則が既に制限を設けている領域と重なる。それでも排除される理由は「内容」の問題か、「誰が決めるか」の問題か。
AI企業が安全基準の解釈権を手放し、政府に完全委任する「Grokモデル」と、自ら解釈権を保持する「Claudeモデル」——社会にとって望ましいのはどちらか。
John
筆者ジョンから、あなたへの問い

おすすめの映画・書籍

この記事の内容をより深く、よりリアルに追体験できるおすすめの映画・書籍をピックアップしました。

テクノロジーが社会やあなたに与える影響を深く考えるきっかけにしてください。

暴露:スノーデンが私に託したファイル
書籍

暴露:スノーデンが私に託したファイル

2014年
新潮社
グレン・グリーンウォルド
米NSAの元職員エドワード・スノーデンから機密文書を託されたジャーナリスト、グレン・グリーンウォルドが、アメリカ政府による世界的規模の個人情報監視の実態を明かしたノンフィクション書籍
推薦理由
国家による大規模監視の構造と、それを制限しようとする力の限界。Anthropicの「レッドライン」が守ろうとしている原則の背景を理解するために。
博士の異常な愛情 または私は如何にして心配するのを止めて水爆を愛するようになったか
映画

博士の異常な愛情

1964年
94分
スタンリー・キューブリック
冷戦下の核戦争の危機を痛烈に皮肉った傑作ブラックコメディ。狂気の将軍が独断でソ連への核攻撃命令を下し、政府上層部が破滅を阻止しようと奔走する様子を滑稽に描く。
推薦理由
兵器システムの制御権が人間の手を離れる構造を、60年前に描いた作品。AI安全装置の「解釈権」をめぐる今日の対立と驚くほど共鳴する。
John
ジョン

テクノロジーと人間の境界を見つめ続けている。

学生起業、プロダクト開発、会社経営。ひと通りやった。一度は「テクノロジーで世界を変える」と本気で信じ、そして挫折した。

今は点ではなく線で見ることを心がけている。個別のニュースより、その背後にある力学。「何が起きたか」より「なぜ今これが起きているのか」。

正解は急がない。煽りもしない。ただ、見逃してはいけない変化には、静かに立場を取る。

関連記事

Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」
04.28

Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」

AIが人件費を超え始めた——その後ろで動いている"企業がAIに投資を続ける"はなぜか
04.28

AIが人件費を超え始めた——その後ろで動いている"企業がAIに投資を続ける"はなぜか

Uber
Uber
NVIDIA
NVIDIA
OpenAI
OpenAI
強いAIが静かに勝っていく——Anthropic社内69人の実験が示した「気づかれない格差」
04.27

強いAIが静かに勝っていく——Anthropic社内69人の実験が示した「気づかれない格差」

Anthropic
Anthropic
Claude
Claude
このトピックスで何を感じ、どう考えましたか。あなたの視点や問いを教えて下さい。
ニックネーム
コメント
あなたの考えをアウトプットしてみませんか。

足りないのは、専門家じゃない。
問い続ける力だ。
あなたは、もう動ける。
専門外のタスクを30分で実行する方法。
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
厳選テックニュースと編集長の視点をお届け。
・その日、読むべきニュースと編集長の問い
・編集長Johnの仕事術・ルーティン
・TechTech.オリジナルツールの先行アクセス / プロダクト開発 / (coming soon)
・グッズ / ラジオ / コミュニティ / カフェバー / イベント...
Business & Partnership
AI導入支援や記事執筆、広告掲載など、ビジネスのご相談はこちら。

最新のトピックス

Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」
04.28

Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」

AIが人件費を超え始めた——その後ろで動いている"企業がAIに投資を続ける"はなぜか
04.28

AIが人件費を超え始めた——その後ろで動いている"企業がAIに投資を続ける"はなぜか

Uber
Uber
NVIDIA
NVIDIA
OpenAI
OpenAI
強いAIが静かに勝っていく——Anthropic社内69人の実験が示した「気づかれない格差」
04.27

強いAIが静かに勝っていく——Anthropic社内69人の実験が示した「気づかれない格差」

Anthropic
Anthropic
Claude
Claude
AIビジネス崩壊の危機?ユーザー獲得の終わり収益化の始まり。AIの「次の一手」とは
04.25

AIビジネス崩壊の危機?ユーザー獲得の終わり収益化の始まり。AIの「次の一手」とは

Anthropic
Anthropic
Google
Google
OpenAI
OpenAI
あなたが毎日使うAIは、妄想を強化する側か、止める側か——AI精神病研究が示したチャットボットの明暗
04.24

あなたが毎日使うAIは、妄想を強化する側か、止める側か——AI精神病研究が示したチャットボットの明暗

Grok
Grok
Gemini
Gemini
Claude
Claude
chatgpt
ChatGPT
働くほど自分を不要にするAIが育っていく——Metaが社員の作業ログ収集へ。熟練はだれの資本か
04.23

働くほど自分を不要にするAIが育っていく——Metaが社員の作業ログ収集へ。熟練はだれの資本か

Meta Llama
Meta
AIとの会話は二人きりではなかった——裁判所が引いた「同席者」の線
04.23

AIとの会話は二人きりではなかった——裁判所が引いた「同席者」の線

Claude
Claude
AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者
04.10

AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者

Anthropic
Anthropic
Claude
Claude
この記事の目次

この記事の目次

上部へスクロール