ドローンだけではない「意思決定AI」——中国の調達文書が問う本当のリスク

Georgetown大学の研究チームが、中国人民解放軍のAI関連調達文書を2本の報告書で分析した。9,000件超の入札公募と2,857件の落札通知。ドローン群やディープフェイク兵器が注目を集めるが、調達文書が繰り返し求めているのは意思決定支援システムだった。その用途は、米軍が既に実行していることと構造的に重なる。
Executive Brief
Contents ——公式発表・一次情報
Summary ——何が起きている?
- Georgetown大学が中国軍のAI調達を2本の報告書で分析。
- ドローン群、自律型水中兵器、ディープフェイク情報戦など広範な用途を確認。
- 入札公募の多くは3〜6ヶ月の短期・少額で、迅速な実験と反復が特徴。
- 研究者は戦闘未経験の将校がAI判断に過度に依存するリスクを指摘。
Perspective ——TECHTECH.の視点
2本の報告書が見せる「軍事AI」の実像
Georgetown大学CSETの研究チームは、中国人民解放軍のAI関連調達文書を2本の報告書で分析した。1本目の"Pulling Back the Curtain"(2025年9月)は2,857件の落札通知から「誰が供給しているか」を、2本目の"China's Military AI Wish List"(2026年2月)は9,000件超の入札公募から「何を求めているか」を明らかにしている。
注目を集めるのはドローン群や自律型水中兵器だ。しかし入札公募の多くが求めていたのは、もっと地味なものだった。意思決定支援システム、敵の行動予測モデル、戦場シミュレーション、オープンソース情報の統合分析(CSET "Wish List", Foreign Affairs報道)。華やかな自律兵器よりも、「判断の補助」が調達の中心に位置している。
供給構造も従来の軍需企業に限らない。落札通知の分析では、2件以上の契約を獲得した338の主要受注組織のうち、約4分の3は国有企業や軍関連研究機関ではなく、政府と所有関係のない「非伝統的ベンダー」——つまり民間企業だった(CSET "Pulling Back the Curtain")。軍民融合という中国の政策が、調達構造の中に実装されている。
太平洋を挟んで重なる用途構造
同日配信の記事で、米中央軍がAnthropicのClaudeをイランへの空爆における情報分析・戦闘シミュレーション・標的選定に使用していた事実を取り上げた。中国軍の調達文書が求めているものと、米軍がClaudeで行っていることを並べると、用途の構造が重なっていることに気づく。
情報の統合と分析。敵の行動予測。シナリオのシミュレーション。標的の識別。
自律型兵器——人間の判断を介さずに殺傷するシステム——が議論の中心にあるが、実際に両国が急いでいるのは「AIが判断を補助し、人間が最終決定する」構造の構築だ。この構造は「人間が関与している」という点で倫理的には許容されやすい。だが、そこにこそ見過ごされているリスクがある。
→ 150万人がChatGPTに背を向けた——Claudeはイランの標的を選んでいた
戦闘未経験者がAIに「経験」を委ねるとき
研究チームが特に警告するのは、中国の将校の実戦経験の薄さだ。人民解放軍は1979年の中越戦争以来、大規模な実戦を経験していない。入札公募が意思決定支援を重視する背景には、この経験の空白がある(CSET "Wish List"、関連論文"AI for Military Decision-Making")。
AIが提供するのは、過去のデータに基づく確率的な推奨だ。実戦経験のある指揮官であれば、AIの推奨を自らの経験に照らして評価し、採用するか棄却するか判断できる。だが実戦経験のない指揮官にとって、AIの推奨は「知らないことを知っているシステム」からの助言になる。棄却する根拠を持たない人間が、推奨を追認し続ける構造が生まれる。
このリスクは中国だけの問題とは言い切れない。AIの推奨を棄却するコストは構造的に高い。棄却して結果が悪ければ「なぜAIの推奨に従わなかったのか」と責任を問われる。AIの推奨に従って結果が悪ければ「AIに従った」という弁明が成り立つ。このインセンティブ構造は、人間の判断権を形骸化させる方向に働く。
「人間が最終判断する」という原則は、自律型兵器の禁止という文脈では安全装置に見える。だが判断者がAIの推奨を評価するだけの経験や情報を持たない場合、安全装置は作動していても機能していない。
3〜6ヶ月の調達サイクルが映す、もう一つの構造差
もう一つ注目すべきは調達の形式だ。9,000件超の入札公募の多くは少額・短期の実験的案件で、期間は3〜6ヶ月(CSET "Wish List")。落札通知の分析でも、契約の平均額は$17万〜$75万と小規模だ(CSET "Pulling Back the Curtain")。これは「最小実行可能な製品を出して素早く改良する」手法に近い。動きながら正解を探している。
米国の軍事調達は対照的だ。Anthropicとペンタゴンの交渉は数ヶ月に及び、大規模・長期・高額が基本構造だ。中国が小さな実験を高速で回す間に、米国は一つの契約の倫理条件を巡って政治的対立を起こしている。
ただし、この速度差を額面通りに受け取るのは早計だ。調達文書が公開されている事実は、中国が軍事AI開発の方向性をある程度意図的に見せている可能性を含む。短期・少額案件が多いことは、まだ「実用に耐えるもの」を探索している段階にあることも示唆する。米国の輸出規制による半導体供給の制約や、人民解放軍内のAI人材の質についても不確実性は残る(CEPA分析)。
それでも、調達の幅とサイクルの速さが見せているのは、中国が倫理的議論という工程を経由せずにAI軍事化を進めているという構造だ。意図的に回避しているというより、そもそもその工程が制度として存在しない。
米国のAnthropicとペンタゴンの対立は、AI軍事利用に倫理的な歯止めをかけようとする試みだった。その試みに価値があるかどうかとは別に、歯止めの議論を経ること自体が速度の代償を伴う。9,000件超の入札公募と2,857件の落札通知は、その代償の対岸にあるものを静かに映し出している。

Drill Down ——もっと掘り下げる

ウォー・ゲーム
Context Timeline ——報道記事
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。















