AIで、一人の限界を超えるメディアプラットフォーム
なぜPentagonはClaudeを使いながらAnthropicを排除したのか——ラベルの本当の意味
2026.03.06

なぜPentagonはClaudeを使いながらAnthropicを排除したのか——ラベルの本当の意味

Anthropic
Anthropic
Claude
Claude
なぜPentagonはClaudeを使いながらAnthropicを排除したのか——ラベルの本当の意味
John
by ジョン
自ら思考/判断/決断する

ZOO, inc. CEO / 毎日テクノロジーを追い、人間の可能性が拡張できるトピックスを探求している。

Pentagonが正式にAnthropicを「サプライチェーンリスク」に指定した。米国企業として初の適用である。だが同じPentagonは今も、イランでの軍事作戦にClaudeを使い続けている。排除しながら依存する——この矛盾が示しているのは、このラベルが安全保障の判断ではなく、別の目的で使われているという構造だ。

この記事の要約

30秒でキャッチアップ
事実
国防総省はAnthropicに対し「サプライチェーンリスク」の正式指定を通知し、同時にイランでの軍事作戦ではPalantirのMaven Smart System経由でClaudeの運用を継続している。
影響
本来は外国の敵対企業に適用される規制ラベルが米国企業に初めて使われたことで、AI企業に対する政府の交渉レバレッジの構造が変わった。
洞察
ラベルの適用対象と実際の運用が乖離していることは、この指定が技術的リスク評価ではなく契約条件をめぐる交渉圧力として機能していることを示唆している。

「サプライチェーンリスク」は安全保障の語彙から交渉術の語彙に変わった

外国の敵対者のためのラベルが、米国企業に貼られた

「サプライチェーンリスク」という指定は、国家安全保障を理由に特定の供給者を連邦調達から排除する制度枠組みの一つだ。これまで排除の対象となってきたのは外国企業だった——2017年のカスペルスキー(ロシア政府との関係が疑われた)、2019年のHuawei(NDAA第889条による禁止)。いずれも外国政府の影響下にある供給者を排除するための措置だった。その同じ性質のラベルが、米国のAI企業に初めて適用された。

Anthropicが「国家安全保障上のリスク」を構成するという論理は、どう組み立てられているか。Pentagonが問題視しているのは、Anthropicの技術に脆弱性があることでも、データが外国政府に流出するリスクがあることでもない。Anthropicが自社のAIモデルの使途に条件をつけたこと——具体的には、大規模監視と自律兵器への利用を拒否したこと——が「リスク」と判定された。サプライヤーが納品条件を交渉することが安全保障上の脅威になる。この論理自体が、従来の制度設計の想定から逸脱している。

排除と依存が同時に成立する構造

だが、この話を「Anthropic vs Pentagon」の続編として読むと、もっとも重要な構造を見落とす。

PentagonはAnthropicをサプライチェーンリスクに指定した。だが同じPentagonは、イランでの軍事作戦でClaudeを使い続けている。Palantirの戦場情報システム「Maven Smart System」にClaudeは深く統合されており、情報分析、戦闘シミュレーション、標的選定に使用されている。置き換えには数ヶ月を要するとされる。

この矛盾は偶然ではない。ラベルの機能が安全保障上のリスク評価ではないことを示している。もしClaudeが本当に「サプライチェーンリスク」なら、軍の作戦で使い続けること自体が安全保障上の問題になる。だが運用は止まらない。つまりこのラベルは、「使わない」ための指定ではなく、「条件を変えさせる」ための指定として機能している。

Lawfare誌の法的分析は、行政手続法がPentagonに実際の国家安全保障リスクの立証を要求すると指摘している。「契約条件の拒否」がその立証要件を満たすかどうかについて、Lawfareは「法廷での最初の接触に耐えられない」と結論づけている。

サム・アルトマンの「政府は企業より強くあるべきだ」

この構図に、もう一つの力学が重なった。OpenAI CEOサム・アルトマンが「政府は企業よりも強力であるべきだ」「軍がAIをどう使うかは選挙で選ばれた人間が決めるべきで、OpenAIが決めることではない」と発言した。Anthropicが条件をつけて排除され、OpenAIが条件をつけずに契約を得た直後の発言だ。

この発言の構造を分解すると、2つの意味が浮かぶ。一つは、企業が安全基準を設定することの限界の指摘。以前の記事で書いた「レッドラインの弾力性」——企業ごとに安全基準の解釈が異なり、結果として最も緩い基準を提示した企業が契約を得る構造——に対する回答として読めなくもない。

だがもう一つの読み方がある。「政府が決めるべきだ」という主張は、裏を返せば「企業は決めなくていい」という宣言でもある。Anthropicの拒否は「企業が倫理的判断を行う」という行為だった。Altmanの発言は、その行為自体を「企業の越権」として退けている。AI企業にとって倫理的判断の放棄が合理的な戦略になるとすれば、業界が連帯したあの瞬間の意味も変わってくる。

ラベルは誰のために存在するのか

Palantir CEOアレックス・カープの反応が、この構造の別の面を照らしている。カープはAnthropicのサプライチェーンリスク指定について「もしこれが自社の技術の国有化につながらないと思うなら甘い」と述べ、AI企業が「すべての人の仕事を奪いながら軍には協力しない」と見なされれば、左右両派から規制を求める力が収束すると警告した。

カープの論理は経営者の視点だが、見えている構造は正確だ。サプライチェーンリスク指定が「安全保障の判断」ではなく「交渉レバレッジ」として機能した場合、次に起きることは予測可能だ。あらゆるAI企業に対して、政府は同じカードを切れる。「条件をつけるなら排除する。排除されたくなければ条件を外せ」。

投資家たちはすでに動いている。Anthropicの出資元であるAmazon、Nvidia、Lightspeed、Iconiqがワシントンのコネクションを使ってロビー活動を展開している。IT業界団体ITI(Nvidia、Google、Anthropic等が加盟)も、ヘグセス国防長官に宛てた書簡で「緊急権限であるサプライチェーンリスク指定は本来、外国の敵対者に対して使われるものだ」と指摘し、調達紛争は通常の交渉プロセスで解決すべきだと訴えた(CNBC報道)。

規制ラベルが本来の用途を離れ、交渉の道具として使われた。その先に何が待つかは、ラベルの意味ではなくラベルの使い方が決める。Anthropicが折れれば、商業的な利用条件が政府の圧力で撤回可能だという前例になる。Anthropicが折れなければ、法廷で「サプライチェーンリスク」の定義そのものが争われる。どちらに転んでも、このラベルは元の意味には戻らない。

あなたの会社が納品条件に倫理的制約をつけたとき、それを「リスク」と呼ばれる可能性をどこまで想定しているか。
「政府が決めるべきだ」という主張は、企業の倫理的判断の放棄と、民主的プロセスへの委託のどちらに近いか。その判断基準は何か。
あなたが政府の調達担当者だったとき、「すべての合法的目的」に使えないAIモデルを「リスク」と分類するか。その根拠は何か。
John
筆者ジョンから、あなたへの問い

おすすめの映画・書籍

この記事の内容をより深く、よりリアルに追体験できるおすすめの映画・書籍をピックアップしました。

テクノロジーが社会やあなたに与える影響を深く考えるきっかけにしてください。

オフィシャル・シークレット
映画

オフィシャル・シークレット

2019年
111分
ギャヴィン・フッド
2003年のイラク戦争開戦前夜、米英政府の違法な工作活動をリークした英国諜報機関の女性職員キャサリン・ガンの衝撃の実話を描いたポリティカル・サスペンス
推薦理由
イラク戦争前夜、政府の情報操作に直面した一人の公務員の実話。「安全保障」の名のもとに行われる圧力と、その中で個人が原則を守ることの代償を描く。
John
ジョン

テクノロジーと人間の境界を見つめ続けている。

学生起業、プロダクト開発、会社経営。ひと通りやった。一度は「テクノロジーで世界を変える」と本気で信じ、そして挫折した。

今は点ではなく線で見ることを心がけている。個別のニュースより、その背後にある力学。「何が起きたか」より「なぜ今これが起きているのか」。

正解は急がない。煽りもしない。ただ、見逃してはいけない変化には、静かに立場を取る。

関連記事

AIゴールドラッシュ。AIに業務を任せた一人社長は自分が「金を掘る側」だと気づいているか
04.30

AIゴールドラッシュ。AIに業務を任せた一人社長は自分が「金を掘る側」だと気づいているか

AIが人件費を超え始めた——その後ろで動いている"企業がAIに投資を続ける"はなぜか
04.28

AIが人件費を超え始めた——その後ろで動いている"企業がAIに投資を続ける"はなぜか

Uber
Uber
NVIDIA
NVIDIA
OpenAI
OpenAI
AIビジネス崩壊の危機?ユーザー獲得の終わり収益化の始まり。AIの「次の一手」とは
04.25

AIビジネス崩壊の危機?ユーザー獲得の終わり収益化の始まり。AIの「次の一手」とは

Anthropic
Anthropic
Google
Google
OpenAI
OpenAI
このトピックスで何を感じ、どう考えましたか。あなたの視点や問いを教えて下さい。
ニックネーム
コメント
あなたの考えをアウトプットしてみませんか。

足りないのは、専門家じゃない。
問い続ける力だ。
あなたは、もう動ける。
専門外のタスクを30分で実行する方法。
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
厳選テックニュースと編集長の視点をお届け。
・その日、読むべきニュースと編集長の問い
・編集長Johnの仕事術・ルーティン
・TechTech.オリジナルツールの先行アクセス / プロダクト開発 / (coming soon)
・グッズ / ラジオ / コミュニティ / カフェバー / イベント...
Business & Partnership
AI導入支援や記事執筆、広告掲載など、ビジネスのご相談はこちら。

最新のトピックス

AIゴールドラッシュ。AIに業務を任せた一人社長は自分が「金を掘る側」だと気づいているか
04.30

AIゴールドラッシュ。AIに業務を任せた一人社長は自分が「金を掘る側」だと気づいているか

Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」
04.28

Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」

AIが人件費を超え始めた——その後ろで動いている"企業がAIに投資を続ける"はなぜか
04.28

AIが人件費を超え始めた——その後ろで動いている"企業がAIに投資を続ける"はなぜか

Uber
Uber
NVIDIA
NVIDIA
OpenAI
OpenAI
強いAIが静かに勝っていく——Anthropic社内69人の実験が示した「気づかれない格差」
04.27

強いAIが静かに勝っていく——Anthropic社内69人の実験が示した「気づかれない格差」

Anthropic
Anthropic
Claude
Claude
AIビジネス崩壊の危機?ユーザー獲得の終わり収益化の始まり。AIの「次の一手」とは
04.25

AIビジネス崩壊の危機?ユーザー獲得の終わり収益化の始まり。AIの「次の一手」とは

Anthropic
Anthropic
Google
Google
OpenAI
OpenAI
あなたが毎日使うAIは、妄想を強化する側か、止める側か——AI精神病研究が示したチャットボットの明暗
04.24

あなたが毎日使うAIは、妄想を強化する側か、止める側か——AI精神病研究が示したチャットボットの明暗

Grok
Grok
Gemini
Gemini
Claude
Claude
chatgpt
ChatGPT
働くほど自分を不要にするAIが育っていく——Metaが社員の作業ログ収集へ。熟練はだれの資本か
04.23

働くほど自分を不要にするAIが育っていく——Metaが社員の作業ログ収集へ。熟練はだれの資本か

Meta Llama
Meta
AIとの会話は二人きりではなかった——裁判所が引いた「同席者」の線
04.23

AIとの会話は二人きりではなかった——裁判所が引いた「同席者」の線

Claude
Claude
この記事の目次

この記事の目次

上部へスクロール