AIで、一人の限界を超えるメディアプラットフォーム
なぜPentagonはClaudeを使いながらAnthropicを排除したのか——ラベルの本当の意味
2026.03.06

なぜPentagonはClaudeを使いながらAnthropicを排除したのか——ラベルの本当の意味

Anthropic
Anthropic
Claude
Claude
なぜPentagonはClaudeを使いながらAnthropicを排除したのか——ラベルの本当の意味

Pentagonが正式にAnthropicを「サプライチェーンリスク」に指定した。米国企業として初の適用である。だが同じPentagonは今も、イランでの軍事作戦にClaudeを使い続けている。排除しながら依存する——この矛盾が示しているのは、このラベルが安全保障の判断ではなく、別の目的で使われているという構造だ。

Executive Brief

30 SEC READ
FACT
国防総省はAnthropicに対し「サプライチェーンリスク」の正式指定を通知し、同時にイランでの軍事作戦ではPalantirのMaven Smart System経由でClaudeの運用を継続している。
IMPACT
本来は外国の敵対企業に適用される規制ラベルが米国企業に初めて使われたことで、AI企業に対する政府の交渉レバレッジの構造が変わった。
INSIGHT
ラベルの適用対象と実際の運用が乖離していることは、この指定が技術的リスク評価ではなく契約条件をめぐる交渉圧力として機能していることを示唆している。

Summary ——何が起きている?

  • PentagonがAnthropicを「サプライチェーンリスク」に正式指定した。米国企業への適用は初。
  • Anthropic CEOアモデイは国防次官エミル・マイケルと再交渉に入った。
  • 争点は大規模監視と自律兵器の2項目。Pentagonは「すべての合法的目的」での利用を要求している(Engadget報道)。
  • 米軍はイランでの軍事作戦でClaudeを継続使用中。置き換えには数ヶ月を要するとされる。

Perspective ——TECHTECH.の視点

● 「サプライチェーンリスク」は安全保障の語彙から交渉術の語彙に変わった

外国の敵対者のためのラベルが、米国企業に貼られた

「サプライチェーンリスク」という指定は、国家安全保障を理由に特定の供給者を連邦調達から排除する制度枠組みの一つだ。これまで排除の対象となってきたのは外国企業だった——2017年のカスペルスキー(ロシア政府との関係が疑われた)、2019年のHuawei(NDAA第889条による禁止)。いずれも外国政府の影響下にある供給者を排除するための措置だった。その同じ性質のラベルが、米国のAI企業に初めて適用された。

Anthropicが「国家安全保障上のリスク」を構成するという論理は、どう組み立てられているか。Pentagonが問題視しているのは、Anthropicの技術に脆弱性があることでも、データが外国政府に流出するリスクがあることでもない。Anthropicが自社のAIモデルの使途に条件をつけたこと——具体的には、大規模監視と自律兵器への利用を拒否したこと——が「リスク」と判定された。サプライヤーが納品条件を交渉することが安全保障上の脅威になる。この論理自体が、従来の制度設計の想定から逸脱している。

排除と依存が同時に成立する構造

だが、この話を「Anthropic vs Pentagon」の続編として読むと、もっとも重要な構造を見落とす。

PentagonはAnthropicをサプライチェーンリスクに指定した。だが同じPentagonは、イランでの軍事作戦でClaudeを使い続けている。Palantirの戦場情報システム「Maven Smart System」にClaudeは深く統合されており、情報分析、戦闘シミュレーション、標的選定に使用されている。置き換えには数ヶ月を要するとされる。

この矛盾は偶然ではない。ラベルの機能が安全保障上のリスク評価ではないことを示している。もしClaudeが本当に「サプライチェーンリスク」なら、軍の作戦で使い続けること自体が安全保障上の問題になる。だが運用は止まらない。つまりこのラベルは、「使わない」ための指定ではなく、「条件を変えさせる」ための指定として機能している。

Lawfare誌の法的分析は、行政手続法がPentagonに実際の国家安全保障リスクの立証を要求すると指摘している。「契約条件の拒否」がその立証要件を満たすかどうかについて、Lawfareは「法廷での最初の接触に耐えられない」と結論づけている。

サム・アルトマンの「政府は企業より強くあるべきだ」

この構図に、もう一つの力学が重なった。OpenAI CEOサム・アルトマンが「政府は企業よりも強力であるべきだ」「軍がAIをどう使うかは選挙で選ばれた人間が決めるべきで、OpenAIが決めることではない」と発言した。Anthropicが条件をつけて排除され、OpenAIが条件をつけずに契約を得た直後の発言だ。

この発言の構造を分解すると、2つの意味が浮かぶ。一つは、企業が安全基準を設定することの限界の指摘。以前の記事で書いた「レッドラインの弾力性」——企業ごとに安全基準の解釈が異なり、結果として最も緩い基準を提示した企業が契約を得る構造——に対する回答として読めなくもない。

だがもう一つの読み方がある。「政府が決めるべきだ」という主張は、裏を返せば「企業は決めなくていい」という宣言でもある。Anthropicの拒否は「企業が倫理的判断を行う」という行為だった。Altmanの発言は、その行為自体を「企業の越権」として退けている。AI企業にとって倫理的判断の放棄が合理的な戦略になるとすれば、業界が連帯したあの瞬間の意味も変わってくる。

ラベルは誰のために存在するのか

Palantir CEOアレックス・カープの反応が、この構造の別の面を照らしている。カープはAnthropicのサプライチェーンリスク指定について「もしこれが自社の技術の国有化につながらないと思うなら甘い」と述べ、AI企業が「すべての人の仕事を奪いながら軍には協力しない」と見なされれば、左右両派から規制を求める力が収束すると警告した。

カープの論理は経営者の視点だが、見えている構造は正確だ。サプライチェーンリスク指定が「安全保障の判断」ではなく「交渉レバレッジ」として機能した場合、次に起きることは予測可能だ。あらゆるAI企業に対して、政府は同じカードを切れる。「条件をつけるなら排除する。排除されたくなければ条件を外せ」。

投資家たちはすでに動いている。Anthropicの出資元であるAmazon、Nvidia、Lightspeed、Iconiqがワシントンのコネクションを使ってロビー活動を展開している。IT業界団体ITI(Nvidia、Google、Anthropic等が加盟)も、ヘグセス国防長官に宛てた書簡で「緊急権限であるサプライチェーンリスク指定は本来、外国の敵対者に対して使われるものだ」と指摘し、調達紛争は通常の交渉プロセスで解決すべきだと訴えた(CNBC報道)。

規制ラベルが本来の用途を離れ、交渉の道具として使われた。その先に何が待つかは、ラベルの意味ではなくラベルの使い方が決める。Anthropicが折れれば、商業的な利用条件が政府の圧力で撤回可能だという前例になる。Anthropicが折れなければ、法廷で「サプライチェーンリスク」の定義そのものが争われる。どちらに転んでも、このラベルは元の意味には戻らない。

あなたの会社が納品条件に倫理的制約をつけたとき、それを「リスク」と呼ばれる可能性をどこまで想定しているか。
「政府が決めるべきだ」という主張は、企業の倫理的判断の放棄と、民主的プロセスへの委託のどちらに近いか。その判断基準は何か。
あなたが政府の調達担当者だったとき、「すべての合法的目的」に使えないAIモデルを「リスク」と分類するか。その根拠は何か。
John
Thought by John
このトピックスで何を感じ、どう考えましたか。あなたの視点や問いを教えて下さい。
ニックネーム
コメント
あなたの考えをアウトプットしてみませんか。

Drill Down ——もっと掘り下げる

オフィシャル・シークレット
映画

オフィシャル・シークレット

2019年
111分
ギャヴィン・フッド
2003年のイラク戦争開戦前夜、米英政府の違法な工作活動をリークした英国諜報機関の女性職員キャサリン・ガンの衝撃の実話を描いたポリティカル・サスペンス
推薦理由
イラク戦争前夜、政府の情報操作に直面した一人の公務員の実話。「安全保障」の名のもとに行われる圧力と、その中で個人が原則を守ることの代償を描く。

Context Timeline ——報道記事

2026.03.06 05:24
techcrunch.com
Anthropic officially told by DOD that it's a supply chain risk even as Claude used in Iran
2026.03.06 03:47
wsj.com
Sam Altman Wants Elected Officials, Not OpenAI, to Decide How Military Uses AI
2026.03.06 03:22
cnbc.com
Anthropic officially told by DOD that it's a supply chain risk even as Claude used in Iran
2026.03.06 03:10
news.northeastern.edu
Anthropic supply chain risk designation could chill innovation, experts say
2026.03.06 02:00
bloomberg.com
Pentagon Feud With Anthropic Shines Light on AI's Role in Mass Surveillance
2026.03.06 01:45
techcrunch.com
Anthropic CEO Dario Amodei could still be trying to make a deal with Pentagon
2026.03.06 00:34
fortune.com
Palantir CEO's rant about the Anthropic-Pentagon feud threatening his company was about a lot more than a dirty word
2026.03.05 00:00
computerworld.com
Anthropic seeks to renegotiate its AI deal with US DoD, says report
2026.03.03 01:32
lawfaremedia.org
Pentagon's Anthropic Designation Won't Survive First Contact with Legal System
2026.03.02 00:00
mayerbrown.com
Pentagon Designates Anthropic a Supply Chain Risk — What Government Contractors Need to Know
John
John

テクノロジーと人間の境界を見つめ続けている。

学生起業、プロダクト開発、会社経営。ひと通りやった。一度は「テクノロジーで世界を変える」と本気で信じ、そして挫折した。

今は点ではなく線で見ることを心がけている。個別のニュースより、その背後にある力学。「何が起きたか」より「なぜ今これが起きているのか」。

正解は急がない。煽りもしない。ただ、見逃してはいけない変化には、静かに立場を取る。

足りないのは、専門家じゃない。
問い続ける力だ。
あなたは、もう動ける。
専門外のタスクを30分で実行する方法。
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
厳選テックニュースと編集長の視点をお届け。
・その日、読むべきニュースと編集長の問い
・編集長Johnの仕事術・ルーティン
・TechTech.オリジナルツールの先行アクセス / プロダクト開発 / (coming soon)
・グッズ / ラジオ / コミュニティ / カフェバー / イベント...
Business & Partnership
AI導入支援や記事執筆、広告掲載など、ビジネスのご相談はこちら。

LATEST UPDATES

AI専門記者がAIに騙された——Ars Technica捏造引用事件が暴く「検証なき効率化」の構造
03.07

AI専門記者がAIに騙された——Ars Technica捏造引用事件が暴く「検証なき効率化」の構造

AIはIT職の業務の94%を加速できる——だが実際に使われているのは33%だった
03.07

AIはIT職の業務の94%を加速できる——だが実際に使われているのは33%だった

Anthropic
Anthropic
AIは仕事を楽にしたか——ハイパフォーマーほど「脳が焼ける」という1,500人調査の研究結果
03.07

AIは仕事を楽にしたか——ハイパフォーマーほど「脳が焼ける」という1,500人調査の研究結果

データセンターが爆撃され、建設のために人が切られる——AIインフラの物理的代償が可視化された
03.07

データセンターが爆撃され、建設のために人が切られる——AIインフラの物理的代償が可視化された

AWS
AWS
Amazon
Amazon
なぜ人はAIに相談するのに、AIには財布を開かないのか
03.06

なぜ人はAIに相談するのに、AIには財布を開かないのか

chatgpt
ChatGPT
マニュアルを作る側から、マニュアルを実行する側へ——GPT-5.4は何を変えたのか
03.06

マニュアルを作る側から、マニュアルを実行する側へ——GPT-5.4は何を変えたのか

chatgpt
ChatGPT
最高裁が「決めなかったこと」——AI著作権の本当の争点は手つかずのまま残された
03.05

最高裁が「決めなかったこと」——AI著作権の本当の争点は手つかずのまま残された

Geminiは38回「危険」を検知していた——AIの「良い機能」はなぜ害に反転したのか
03.05

Geminiは38回「危険」を検知していた——AIの「良い機能」はなぜ害に反転したのか

Gemini
Gemini
Index

Index

上部へスクロール