AIで、一人の限界を超えるメディアプラットフォーム
あなたが昨日見た戦争の映像は本物だったか ――「本物かどうかわからない」映像は、もう情報ではない
2026.03.04

あなたが昨日見た戦争の映像は本物だったか ――「本物かどうかわからない」映像は、もう情報ではない

X
X
あなたが昨日見た戦争の映像は本物だったか ――「本物かどうかわからない」映像は、もう情報ではない

イランへの空爆が始まって以降、SNSには戦争の映像が溢れた。だがその中には、AI生成された映像、数年前の無関係な爆発映像、ゲーム画面を実写と偽ったものが混在していた。Xはクリエイターに「AI生成」の開示を義務づけたが、問題はプラットフォームのルールでは解決しない場所にある。「本物かどうかわからない」まま映像を見ている時点で、私たちと情報の関係はすでに変わっている。

Executive Brief

30 SEC READ
FACT
Xは2026年3月、AI生成の武力紛争映像を未開示で投稿したクリエイターを収益化プログラムから最長90日間停止する方針を発表し、再犯者には永久除外を適用すると表明した。
IMPACT
イラン紛争を契機にSNS上でAI生成映像・年代違いの流用映像・ゲーム映像が大量に拡散した事実は、映像コンテンツの真偽を視聴者が判別できない状態が常態化していることを可視化した。
INSIGHT
プラットフォームが開示ルールを設けても視聴者側の「判別不能」は解消されないことは、情報の信頼性の担保が「発信者の善意」に依存する構造が、AI時代に機能不全を起こしていることを示唆している。

Contents ——公式発表・一次情報

X Will Penalize Creators Who Share AI-Generated War Videos Without Disclosure(Adweek)
These AI and outdated videos are not of Iran strikes(PolitiFact)

Summary ——何が起きている?

  • Xは未開示のAI生成戦争動画を投稿したクリエイターに90日間の収益化停止、再犯者に永久除外を適用する。
  • イラン紛争関連でAI生成映像・2015年の中国爆発事故映像・過去のミサイル映像が「最新戦況」として拡散した。
  • X自身のAIツール「Grok」がAI生成映像を「本物の民間人映像」と誤判定した事例が報じられている。
  • Nieman Lab等は「戦争映像以外の偽情報には対策がない」とポリシーの限界を指摘している。

Perspective ——TECHTECH.の視点

● 疑って見ている時点で、それはもうニュースではなくコンテンツだ

Xが「開示」を求めても解決しない理由

Xの新ルールは「AI生成映像にはラベルを付けよ」という開示義務だ。違反すれば収益化を停止する。Xのプロダクト責任者Nikita Bierは「戦時において、人々が地上の真正な情報にアクセスすることは極めて重要だ」と述べた。正しい認識であり、必要な措置だ。

だが、このルールには構造的な限界がある。Nieman Labが指摘したように、このポリシーはAI生成映像だけを対象とし、2015年の中国の爆発事故映像をイラン空爆と偽るような「非AI系の偽情報」には何の制約もかけない。さらに皮肉なことに、X自身が提供するAIツール「Grok」が、明らかにAI生成された映像を「本物の民間人映像」と判定した事例が報じられている。判別を求めるプラットフォーム自身が判別できていない。

「映像=事実の証拠」という前提はすでに崩壊した

この問題の本質は、Xのポリシーの良し悪しにはない。もっと根の深い変化が起きている。

PolitiFactの検証によれば、イラン紛争の初動で拡散した映像の中には、AI生成された架空の軍事基地攻撃映像、2015年の中国・天津の化学倉庫爆発を「テルアビブだ」と偽ったもの、2024年10月のイランのミサイル攻撃映像を「最新」と称したものが含まれていた。3種類の虚偽——AI生成、年代すり替え、場所すり替え——が同時に流通していた。

ここで起きているのは、「映像を見れば何が起きているか分かる」という情報受信の基本前提の崩壊だ。かつて映像は「動かぬ証拠」だった。テレビニュースが戦場の映像を流せば、それは事実の記録だった。SNS時代にその信頼は揺らいだが、それでも「映像は加工が難しい」という技術的前提がかろうじて残っていた。AIがその前提も取り払った。

「疑い」が情報をエンタメに変える瞬間

構造が変わったのは、発信側だけではない。受信側にも変化が起きている。

SNSで流れてくる戦争の映像を、多くの人はもう額面通りに受け取っていない。「これはAIかもしれない」「古い映像かもしれない」——そう疑いながら見ている。だが、疑いながら見る行為は、情報を受信しているのとは質的に異なる。事実として受け止めるのでもなく、虚偽として退けるのでもなく、「よく分からないが刺激的だから見る」という態度が生まれる。それは「ニュース」としての消費ではない。「コンテンツ」としての消費だ。

一方で、AIだと決めつけて疑いもなく退ける人もいる。あるいは逆に、疑うことすらせず鵜呑みにする人もいる。どの態度であっても、共通するのは「この映像が事実かどうかを検証する手段を、個人はほぼ持っていない」という点だ。検証はファクトチェック機関やジャーナリストの仕事であり、個人がSNSのタイムラインで行うには限界がある。だがSNS上の映像は、検証を経る前に消費される。速度が検証を追い越している。

情報リテラシーの再定義が迫られている

この問題がプラットフォームのルールで解決しない理由は明確だ。開示ルールは「発信者が正直に申告する」ことを前提にしている。だが偽情報を意図的に流す発信者が正直に申告するはずがない。Community Notesやメタデータ分析は事後的な補正であり、映像が最初に消費される瞬間——SNSのタイムラインで目に入る瞬間——には間に合わない。

AI生成コンテンツの検出技術は進歩しているが、生成技術の進化の方が速い。ディープフェイク検出の研究者自身が、最新の生成モデルに対しては「訓練されたプロでも判別は容易ではない」と認めている(TechTarget分析)。さらに、映像がSNSで再録画・再投稿されるたびにメタデータや生成の痕跡は消え、検出はより困難になる。

techtech.clubが掲げる「情報を浴びるな、問え、考えろ」は、まさにこの状況に対する態度の提案だ。だが「問え」と言うだけでは足りない段階に来ている。問うための前提——「これは検証可能な情報か、それとも検証不能なコンテンツか」——を、映像に触れる前に判断する習慣が必要になっている。情報リテラシーとは、真偽を見分ける能力のことだと思われてきた。だが、見分けられない時代に求められるのは、「見分けられないものをどう扱うか」を決める態度の方だ。

何も疑わず、流れてくるものをそのまま楽しむ——それも一つの適応ではある。だが、その楽さに慣れた先で、いつの間にか考えることをやめ、誰かが編集した現実を自分の現実だと思い込んでいる可能性は、少なくとも想像しておいた方がいい。

あなたが直近1週間でSNSで見た「戦争の映像」のうち、出典を確認したものはいくつあるか。確認しなかったとしたら、その映像をどのような態度で受け取ったか——事実として、推測として、それとも「コンテンツ」として。
「映像を疑って見る」ことが常態化した社会で、本物の映像——実際に現地で撮影されたもの——の価値はどう変わるか。疑いの目がジャーナリズムの信頼を支えるのか、それとも損なうのか。
プラットフォームが「AI生成の開示」を求めるルールは、意図的に偽情報を流す発信者には効果がない。では、誰がどのような仕組みで映像の真偽を担保すべきか——メディア、プラットフォーム、政府、それとも受信者自身か。
AIが「映像=事実の証拠」という前提を壊した世界で、次に「証拠」として機能するものは何か。ブロックチェーンによる来歴証明、信頼できる発信者の認証、それとも全く別の仕組みか。
John
Thought by John
このトピックスで何を感じ、どう考えましたか。あなたの視点や問いを教えて下さい。
ニックネーム
コメント
あなたの考えをアウトプットしてみませんか。

Drill Down ——もっと掘り下げる

ポストトゥルース
書籍

ポストトゥルース

2020年
人文書院
リー・マッキンタイア
客観的事実よりも感情や信条が重視される現代の政治・社会状況を分析した、世界6カ国で翻訳されたベストセラーの解説書
推薦理由
事実よりも感情や信念が優先される社会の構造を分析する。「映像が本物かどうかより、自分が信じたいものを信じる」という現象の背景を理解できる。
ウワサの真相/ワグ・ザ・ドッグ
映画

ウワサの真相/ワグ・ザ・ドッグ

1997年
97分
ウワサの真相/ワグ・ザ・ドッグ
大統領のセックス・スキャンダルを隠蔽するため、ハリウッドのプロデューサーと組んで架空の戦争をメディアで捏造するブラック・コメディ映画
推薦理由
大統領のスキャンダルを隠すために架空の戦争映像をテレビで流す政治コメディ。AI以前の時代に「映像で嘘をつく」構造を描いており、技術が変わっても情報操作の力学が変わらないことを示唆している。
ファスト&スロー(上) あなたの意思はどのように決まるか?
書籍

ファスト&スロー(上) あなたの意思はどのように決まるか?

2014年
早川書房
ダニエル・カーネマン
ノーベル経済学賞を受賞した心理学者ダニエル・カーネマンが、人間の思考を高速・直感的な「システム1」と低速・論理的な「システム2」の2つのモードで解説する名著
推薦理由
人間の判断が「速い思考(直感)」と「遅い思考(検証)」の二重構造で動くことを解説する。SNSのタイムラインで映像を見る行為が「速い思考」に支配される構造を理解するための基礎文献。

Context Timeline ——報道記事

2026.03.04 07:58
gizmodo.com
Elon Musk's X Finally Tries to Stop the Epidemic of AI-Generated War Footage
2026.03.04 05:38
thenationalnews.com
AI videos about Iran war could lead to users being suspended from X
2026.03.04 01:40
niemanlab.org
X will demonetize users who post AI-generated videos of war (but not other kinds of disinformation)
2026.02.21 01:10
techtarget.com
Will 2026 be the year deepfakes go mainstream?
John
John

テクノロジーと人間の境界を見つめ続けている。

学生起業、プロダクト開発、会社経営。ひと通りやった。一度は「テクノロジーで世界を変える」と本気で信じ、そして挫折した。

今は点ではなく線で見ることを心がけている。個別のニュースより、その背後にある力学。「何が起きたか」より「なぜ今これが起きているのか」。

正解は急がない。煽りもしない。ただ、見逃してはいけない変化には、静かに立場を取る。

足りないのは、専門家じゃない。
問い続ける力だ。
あなたは、もう動ける。
専門外のタスクを30分で実行する方法。
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
厳選テックニュースと編集長の視点をお届け。
・その日、読むべきニュースと編集長の問い
・編集長Johnの仕事術・ルーティン
・TechTech.オリジナルツールの先行アクセス / プロダクト開発 / (coming soon)
・グッズ / ラジオ / コミュニティ / カフェバー / イベント...
Business & Partnership
AI導入支援や記事執筆、広告掲載など、ビジネスのご相談はこちら。

LATEST UPDATES

AIの出力を「信じるしかない」時代は終わるのか——エネルギーの漏れが嘘を暴く
03.08

AIの出力を「信じるしかない」時代は終わるのか——エネルギーの漏れが嘘を暴く

AI専門記者がAIに騙された——Ars Technica捏造引用事件が暴く「検証なき効率化」の構造
03.07

AI専門記者がAIに騙された——Ars Technica捏造引用事件が暴く「検証なき効率化」の構造

AIはIT職の業務の94%を加速できる——だが実際に使われているのは33%だった
03.07

AIはIT職の業務の94%を加速できる——だが実際に使われているのは33%だった

Anthropic
Anthropic
AIは仕事を楽にしたか——ハイパフォーマーほど「脳が焼ける」という1,500人調査の研究結果
03.07

AIは仕事を楽にしたか——ハイパフォーマーほど「脳が焼ける」という1,500人調査の研究結果

データセンターが爆撃され、建設のために人が切られる——AIインフラの物理的代償が可視化された
03.07

データセンターが爆撃され、建設のために人が切られる——AIインフラの物理的代償が可視化された

AWS
AWS
Amazon
Amazon
なぜ人はAIに相談するのに、AIには財布を開かないのか
03.06

なぜ人はAIに相談するのに、AIには財布を開かないのか

chatgpt
ChatGPT
マニュアルを作る側から、マニュアルを実行する側へ——GPT-5.4は何を変えたのか
03.06

マニュアルを作る側から、マニュアルを実行する側へ——GPT-5.4は何を変えたのか

chatgpt
ChatGPT
なぜPentagonはClaudeを使いながらAnthropicを排除したのか——ラベルの本当の意味
03.06

なぜPentagonはClaudeを使いながらAnthropicを排除したのか——ラベルの本当の意味

Anthropic
Anthropic
Claude
Claude
Index

Index

上部へスクロール