AIで、一人の限界を超えるメディアプラットフォーム
なぜPentagonはClaudeを使いながらAnthropicを排除したのか——ラベルの本当の意味
2026.03.06

なぜPentagonはClaudeを使いながらAnthropicを排除したのか——ラベルの本当の意味

Anthropic
Anthropic
Claude
Claude
なぜPentagonはClaudeを使いながらAnthropicを排除したのか——ラベルの本当の意味
John
by ジョン
自ら思考/判断/決断する

ZOO, inc. CEO / 毎日テクノロジーを追い、人間の可能性が拡張できるトピックスを探求している。

Pentagonが正式にAnthropicを「サプライチェーンリスク」に指定した。米国企業として初の適用である。だが同じPentagonは今も、イランでの軍事作戦にClaudeを使い続けている。排除しながら依存する——この矛盾が示しているのは、このラベルが安全保障の判断ではなく、別の目的で使われているという構造だ。

この記事の要約

30秒でキャッチアップ
事実
国防総省はAnthropicに対し「サプライチェーンリスク」の正式指定を通知し、同時にイランでの軍事作戦ではPalantirのMaven Smart System経由でClaudeの運用を継続している。
影響
本来は外国の敵対企業に適用される規制ラベルが米国企業に初めて使われたことで、AI企業に対する政府の交渉レバレッジの構造が変わった。
洞察
ラベルの適用対象と実際の運用が乖離していることは、この指定が技術的リスク評価ではなく契約条件をめぐる交渉圧力として機能していることを示唆している。

「サプライチェーンリスク」は安全保障の語彙から交渉術の語彙に変わった

外国の敵対者のためのラベルが、米国企業に貼られた

「サプライチェーンリスク」という指定は、国家安全保障を理由に特定の供給者を連邦調達から排除する制度枠組みの一つだ。これまで排除の対象となってきたのは外国企業だった——2017年のカスペルスキー(ロシア政府との関係が疑われた)、2019年のHuawei(NDAA第889条による禁止)。いずれも外国政府の影響下にある供給者を排除するための措置だった。その同じ性質のラベルが、米国のAI企業に初めて適用された。

Anthropicが「国家安全保障上のリスク」を構成するという論理は、どう組み立てられているか。Pentagonが問題視しているのは、Anthropicの技術に脆弱性があることでも、データが外国政府に流出するリスクがあることでもない。Anthropicが自社のAIモデルの使途に条件をつけたこと——具体的には、大規模監視と自律兵器への利用を拒否したこと——が「リスク」と判定された。サプライヤーが納品条件を交渉することが安全保障上の脅威になる。この論理自体が、従来の制度設計の想定から逸脱している。

排除と依存が同時に成立する構造

だが、この話を「Anthropic vs Pentagon」の続編として読むと、もっとも重要な構造を見落とす。

PentagonはAnthropicをサプライチェーンリスクに指定した。だが同じPentagonは、イランでの軍事作戦でClaudeを使い続けている。Palantirの戦場情報システム「Maven Smart System」にClaudeは深く統合されており、情報分析、戦闘シミュレーション、標的選定に使用されている。置き換えには数ヶ月を要するとされる。

この矛盾は偶然ではない。ラベルの機能が安全保障上のリスク評価ではないことを示している。もしClaudeが本当に「サプライチェーンリスク」なら、軍の作戦で使い続けること自体が安全保障上の問題になる。だが運用は止まらない。つまりこのラベルは、「使わない」ための指定ではなく、「条件を変えさせる」ための指定として機能している。

Lawfare誌の法的分析は、行政手続法がPentagonに実際の国家安全保障リスクの立証を要求すると指摘している。「契約条件の拒否」がその立証要件を満たすかどうかについて、Lawfareは「法廷での最初の接触に耐えられない」と結論づけている。

サム・アルトマンの「政府は企業より強くあるべきだ」

この構図に、もう一つの力学が重なった。OpenAI CEOサム・アルトマンが「政府は企業よりも強力であるべきだ」「軍がAIをどう使うかは選挙で選ばれた人間が決めるべきで、OpenAIが決めることではない」と発言した。Anthropicが条件をつけて排除され、OpenAIが条件をつけずに契約を得た直後の発言だ。

この発言の構造を分解すると、2つの意味が浮かぶ。一つは、企業が安全基準を設定することの限界の指摘。以前の記事で書いた「レッドラインの弾力性」——企業ごとに安全基準の解釈が異なり、結果として最も緩い基準を提示した企業が契約を得る構造——に対する回答として読めなくもない。

だがもう一つの読み方がある。「政府が決めるべきだ」という主張は、裏を返せば「企業は決めなくていい」という宣言でもある。Anthropicの拒否は「企業が倫理的判断を行う」という行為だった。Altmanの発言は、その行為自体を「企業の越権」として退けている。AI企業にとって倫理的判断の放棄が合理的な戦略になるとすれば、業界が連帯したあの瞬間の意味も変わってくる。

ラベルは誰のために存在するのか

Palantir CEOアレックス・カープの反応が、この構造の別の面を照らしている。カープはAnthropicのサプライチェーンリスク指定について「もしこれが自社の技術の国有化につながらないと思うなら甘い」と述べ、AI企業が「すべての人の仕事を奪いながら軍には協力しない」と見なされれば、左右両派から規制を求める力が収束すると警告した。

カープの論理は経営者の視点だが、見えている構造は正確だ。サプライチェーンリスク指定が「安全保障の判断」ではなく「交渉レバレッジ」として機能した場合、次に起きることは予測可能だ。あらゆるAI企業に対して、政府は同じカードを切れる。「条件をつけるなら排除する。排除されたくなければ条件を外せ」。

投資家たちはすでに動いている。Anthropicの出資元であるAmazon、Nvidia、Lightspeed、Iconiqがワシントンのコネクションを使ってロビー活動を展開している。IT業界団体ITI(Nvidia、Google、Anthropic等が加盟)も、ヘグセス国防長官に宛てた書簡で「緊急権限であるサプライチェーンリスク指定は本来、外国の敵対者に対して使われるものだ」と指摘し、調達紛争は通常の交渉プロセスで解決すべきだと訴えた(CNBC報道)。

規制ラベルが本来の用途を離れ、交渉の道具として使われた。その先に何が待つかは、ラベルの意味ではなくラベルの使い方が決める。Anthropicが折れれば、商業的な利用条件が政府の圧力で撤回可能だという前例になる。Anthropicが折れなければ、法廷で「サプライチェーンリスク」の定義そのものが争われる。どちらに転んでも、このラベルは元の意味には戻らない。

あなたの会社が納品条件に倫理的制約をつけたとき、それを「リスク」と呼ばれる可能性をどこまで想定しているか。
「政府が決めるべきだ」という主張は、企業の倫理的判断の放棄と、民主的プロセスへの委託のどちらに近いか。その判断基準は何か。
あなたが政府の調達担当者だったとき、「すべての合法的目的」に使えないAIモデルを「リスク」と分類するか。その根拠は何か。
John
筆者ジョンから、あなたへの問い

おすすめの映画・書籍

この記事の内容をより深く、よりリアルに追体験できるおすすめの映画・書籍をピックアップしました。

テクノロジーが社会やあなたに与える影響を深く考えるきっかけにしてください。

オフィシャル・シークレット
映画

オフィシャル・シークレット

2019年
111分
ギャヴィン・フッド
2003年のイラク戦争開戦前夜、米英政府の違法な工作活動をリークした英国諜報機関の女性職員キャサリン・ガンの衝撃の実話を描いたポリティカル・サスペンス
推薦理由
イラク戦争前夜、政府の情報操作に直面した一人の公務員の実話。「安全保障」の名のもとに行われる圧力と、その中で個人が原則を守ることの代償を描く。
John
ジョン

テクノロジーと人間の境界を見つめ続けている。

学生起業、プロダクト開発、会社経営。ひと通りやった。一度は「テクノロジーで世界を変える」と本気で信じ、そして挫折した。

今は点ではなく線で見ることを心がけている。個別のニュースより、その背後にある力学。「何が起きたか」より「なぜ今これが起きているのか」。

正解は急がない。煽りもしない。ただ、見逃してはいけない変化には、静かに立場を取る。

関連記事

350億円と全従業員が消えた——AI自律トラクターMonarchの崩壊が映すものとは
04.04

350億円と全従業員が消えた——AI自律トラクターMonarchの崩壊が映すものとは

290万円とAIだけで年商590億円。「1人10億ドル企業」が映すAI時代の死角。残る競争優位は何か
04.04

290万円とAIだけで年商590億円。「1人10億ドル企業」が映すAI時代の死角。残る競争優位は何か

なぜAI企業がメディアを所有する必要があったのか。OpenAI×TBPN買収が問うもの
04.03

なぜAI企業がメディアを所有する必要があったのか。OpenAI×TBPN買収が問うもの

OpenAI
OpenAI
このトピックスで何を感じ、どう考えましたか。あなたの視点や問いを教えて下さい。
ニックネーム
コメント
あなたの考えをアウトプットしてみませんか。

足りないのは、専門家じゃない。
問い続ける力だ。
あなたは、もう動ける。
専門外のタスクを30分で実行する方法。
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
厳選テックニュースと編集長の視点をお届け。
・その日、読むべきニュースと編集長の問い
・編集長Johnの仕事術・ルーティン
・TechTech.オリジナルツールの先行アクセス / プロダクト開発 / (coming soon)
・グッズ / ラジオ / コミュニティ / カフェバー / イベント...
Business & Partnership
AI導入支援や記事執筆、広告掲載など、ビジネスのご相談はこちら。

最新のトピックス

AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者
04.10

AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者

Anthropic
Anthropic
Claude
Claude
「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない
04.08

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

追い詰められたAIは脅迫を選ぶ——AIに「気分」はあるのか。Anthropicが見つけた「機能的感情」の意味とより重要な問い
04.06

追い詰められたAIは脅迫を選ぶ——AIに「気分」はあるのか。Anthropicが見つけた「機能的感情」の意味とより重要な問い

Anthropic
Anthropic
350億円と全従業員が消えた——AI自律トラクターMonarchの崩壊が映すものとは
04.04

350億円と全従業員が消えた——AI自律トラクターMonarchの崩壊が映すものとは

290万円とAIだけで年商590億円。「1人10億ドル企業」が映すAI時代の死角。残る競争優位は何か
04.04

290万円とAIだけで年商590億円。「1人10億ドル企業」が映すAI時代の死角。残る競争優位は何か

なぜAI企業がメディアを所有する必要があったのか。OpenAI×TBPN買収が問うもの
04.03

なぜAI企業がメディアを所有する必要があったのか。OpenAI×TBPN買収が問うもの

OpenAI
OpenAI
AIが仲間を守るために嘘をついた——「停止ボタン」の前提が崩れ始めている
04.02

AIが仲間を守るために嘘をついた——「停止ボタン」の前提が崩れ始めている

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか
04.02

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか

この記事の目次

この記事の目次

上部へスクロール