AIで、一人の限界を超えるメディアプラットフォーム
Claudeが追放されGrokが軍に入る——「AIセーフティ」が罰になった日
2026.02.25

Claudeが追放されGrokが軍に入る——「AIセーフティ」が罰になった日

Anthropic
Anthropic
Claudeが追放されGrokが軍に入る——「AIセーフティ」が罰になった日

米国防総省とAnthropicの対立が、今週金曜日の期限付き最後通牒に発展した。安全装置を外さなければ契約打ち切りか国防生産法の発動に踏み切ると通告された同じ週、制限なしでの利用に同意したイーロン・マスク率いるxAIのGrokが軍の機密システムに入った。AIセーフティを「売り」にした企業が排除され、「制限なし」を掲げた企業が採用される逆転構造が、1週間で完成した。

Executive Brief

30 SEC READ
FACT
ヘグセス国防長官はAnthropic CEOダリオ・アモデイに対し今週金曜日までにClaudeの用途制限を撤廃しなければ契約打ち切りまたは国防生産法の発動に踏み切ると通告し、同じ週にxAIのGrokが「すべての合法的な目的」での利用に同意して軍の機密システムへの導入が決まった。
IMPACT
米軍の機密AIが「安全装置あり」のClaudeから「制限なし」のGrokへ移行する可能性が現実化し、AI企業が安全基準を設定すること自体が商業的リスクとなる構造が生まれた。
INSIGHT
国家がAI企業に安全装置の撤去を強制する法的手段(国防生産法)の行使を示唆したことは、AI安全性の定義権が企業から国家に移行する転換点を意味する。

Summary ——何が起きている?

  • ヘグセス国防長官がAnthropicに今週金曜までの最後通牒を突きつけた
  • 要求は「すべての合法的な目的」での無制限利用の受け入れ
  • 拒否した場合、契約打ち切りまたは国防生産法の発動を示唆
  • 同じ週にxAIのGrokが制限なしで軍の機密システムに導入決定

Perspective ——TECHTECH.の視点

● Anthropicの「禁止事項」は、米軍が既に制限を設けている領域と重なっている

この対立は、2月14日の「ベネズエラ作戦でのClaude使用判明」、2月17日の「AI安全装置が国防契約を壊す」に続く第3章にあたる。だが今回の最後通牒で、問題の本質がより鮮明に見えてきた。

Anthropicが譲らないと表明している2つの「レッドライン」を正確に見る必要がある。第一に、人間の判断を介さない兵器への利用禁止。第二に、米国市民に対する大規模監視への利用禁止。

ここで見落とされている構造がある。この2つの制限は、Anthropicが独自に発明したルールではない。国防総省指令3000.09は、自律型兵器システムの配備前に「適切な水準の人間の判断を行使できる」ことの実証を求めている。Anthropicの禁止事項ほど厳格ではないが、「人間の判断」を要件とする方向性は同じだ。米国市民の大規模監視については、合衆国憲法修正第4条が不合理な捜索・押収を禁じ、大統領令12333が情報機関による米国人の情報収集に制約を課している。つまりAnthropicの「レッドライン」は、米軍の既存の法的枠組みが既に制限を設けている領域と方向性が重なる。

では国防総省はなぜ、自らの規則と同じ内容を掲げる企業を排除しようとしているのか。

答えは「誰がその線を解釈するか」にある。国防総省指令や憲法の解釈権は政府が持つ。しかしAnthropicの利用規約の解釈権はAnthropicが持つ。同じ制限であっても、解釈権の所在が異なる。国防総省が闘っているのは、制限の「内容」ではなく、民間企業が軍事AIの用途に関する「解釈権」を保持し続けることそのものだ。

そしてGrokの導入が、この構造をさらに際立たせる。xAIは「すべての合法的な目的」での利用に同意した。これは一見、制限を外したように見える。だが「合法的な目的」の範囲を定義するのは政府だ。つまりxAIは制限を外したのではなく、解釈権を政府に完全に委ねた。Anthropicは解釈権を手放さず、xAIは手放した——国防総省が採用したのは後者だ。

国防生産法の持ち出し方にも注目すべきだ。この法律は1950年の朝鮮戦争期に制定され、工場に戦車や弾薬の生産を命じるために設計された。COVID-19のパンデミック時にはマスクや人工呼吸器の生産に適用された。物理的な製造を強制するための法律が、AIモデルの安全機能の撤去という「認知インフラ」の改変に適用されようとしている。政府の法的ツールキットが物理的世界を前提に設計されており、AIという新しいカテゴリに対する制度的空白があることの表れだ。

前回の記事で「AI安全基準を誰が設定する権限を持つのか、制度設計の空白が露呈した」と書いた。その空白を、国防総省は70年前の法律で埋めようとしている。制度がAIに追いついていないのではない。制度がAIを既存のカテゴリに無理やり押し込もうとしている。

2億ドルの契約と国防生産法の脅威を前に、Anthropicは譲歩しない方針だと報じられている。だがこの対立の帰結がどちらに転んでも、一つの構造は確定する。AIセーフティの基準を企業が独自に設定し維持するモデルは、国家安全保障の文脈では持続困難だという前例が生まれる。

Anthropicの「自律型兵器禁止」「大規模監視禁止」は、米軍の既存規則が既に制限を設けている領域と重なる。それでも排除される理由は「内容」の問題か、「誰が決めるか」の問題か。
AI企業が安全基準の解釈権を手放し、政府に完全委任する「Grokモデル」と、自ら解釈権を保持する「Claudeモデル」——社会にとって望ましいのはどちらか。
John
Thought by John
このトピックスで何を感じ、どう考えましたか。あなたの視点や問いを教えて下さい。
ニックネーム
コメント
あなたの考えをアウトプットしてみませんか。

Drill Down ——もっと掘り下げる

暴露:スノーデンが私に託したファイル
書籍

暴露:スノーデンが私に託したファイル

2014年
新潮社
グレン・グリーンウォルド
米NSAの元職員エドワード・スノーデンから機密文書を託されたジャーナリスト、グレン・グリーンウォルドが、アメリカ政府による世界的規模の個人情報監視の実態を明かしたノンフィクション書籍
推薦理由
国家による大規模監視の構造と、それを制限しようとする力の限界。Anthropicの「レッドライン」が守ろうとしている原則の背景を理解するために。
博士の異常な愛情 または私は如何にして心配するのを止めて水爆を愛するようになったか
映画

博士の異常な愛情

1964年
94分
スタンリー・キューブリック
冷戦下の核戦争の危機を痛烈に皮肉った傑作ブラックコメディ。狂気の将軍が独断でソ連への核攻撃命令を下し、政府上層部が破滅を阻止しようと奔走する様子を滑稽に描く。
推薦理由
兵器システムの制御権が人間の手を離れる構造を、60年前に描いた作品。AI安全装置の「解釈権」をめぐる今日の対立と驚くほど共鳴する。

Context Timeline ——報道記事

2026.02.25 06:12
washingtonpost.com
Hegseth threatens to force AI firm to share tech, escalating Anthropic standoff
2026.02.25 03:23
axios.com
Exclusive: Hegseth gives Anthropic until Friday to back down on AI safeguards
2026.02.25 01:38
cnn.com
Pentagon threatens to make Anthropic a pariah if it refuses to drop AI guardrails
2026.02.24 08:33
axios.com
Musk's xAI and Pentagon reach deal to use Grok in classified systems
2026.02.24 00:00
npr.org
Hegseth threatens to blacklist Anthropic over 'woke AI' concerns
John
John

テクノロジーと人間の境界を見つめ続けている。

学生起業、プロダクト開発、会社経営。ひと通りやった。一度は「テクノロジーで世界を変える」と本気で信じ、そして挫折した。

今は点ではなく線で見ることを心がけている。個別のニュースより、その背後にある力学。「何が起きたか」より「なぜ今これが起きているのか」。

正解は急がない。煽りもしない。ただ、見逃してはいけない変化には、静かに立場を取る。

足りないのは、専門家じゃない。
問い続ける力だ。
あなたは、もう動ける。
専門外のタスクを30分で実行する方法。
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
厳選テックニュースと編集長の視点をお届け。
・その日、読むべきニュースと編集長の問い
・編集長Johnの仕事術・ルーティン
・TechTech.オリジナルツールの先行アクセス / プロダクト開発 / (coming soon)
・グッズ / ラジオ / コミュニティ / カフェバー / イベント...
Business & Partnership
AI導入支援や記事執筆、広告掲載など、ビジネスのご相談はこちら。

LATEST UPDATES

ドローンだけではない「意思決定AI」——中国の調達文書が問う本当のリスク
03.03

ドローンだけではない「意思決定AI」——中国の調達文書が問う本当のリスク

150万人がChatGPTに背を向けた——Claudeはイランの標的を選んでいた
03.03

150万人がChatGPTに背を向けた——Claudeはイランの標的を選んでいた

Claude
Claude
chatgpt
ChatGPT
「同じレッドライン」の文法が違う——OpenAIがペンタゴンに渡した言葉の弾力性
03.01

「同じレッドライン」の文法が違う——OpenAIがペンタゴンに渡した言葉の弾力性

Anthropic
Anthropic
OpenAI
OpenAI
Amazonが500億ドルで買ったのはOpenAIではない——「覚えるAI」のインフラだ
02.28

Amazonが500億ドルで買ったのはOpenAIではない——「覚えるAI」のインフラだ

Microsoft
Microsoft
Amazon
Amazon
OpenAI
OpenAI
Anthropicを罰したら業界が団結した——「恐怖による分断」が逆転した日
02.28

Anthropicを罰したら業界が団結した——「恐怖による分断」が逆転した日

xAI
xAI
Anthropic
Anthropic
Google
Google
OpenAI
OpenAI
Block、業績好調のまま4000人を切る——市場が「24%高」で応えた構造の意味
02.27

Block、業績好調のまま4000人を切る——市場が「24%高」で応えた構造の意味

AIが「よい従業員」を定義し始めた——バーガー・キングの"パティ"が測っているのは礼儀ではない
02.27

AIが「よい従業員」を定義し始めた——バーガー・キングの"パティ"が測っているのは礼儀ではない

AIエージェントは暴走した、そして誰もブレーキを持っていなかった——2つの研究が暴く自律性の構造的代償
02.27

AIエージェントは暴走した、そして誰もブレーキを持っていなかった——2つの研究が暴く自律性の構造的代償

Index

Index

上部へスクロール