AIで、一人の限界を超えるメディアプラットフォーム
「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない
2026.04.08

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない
John
by ジョン
自ら思考/判断/決断する

ZOO, inc. CEO / 毎日テクノロジーを追い、人間の可能性が拡張できるトピックスを探求している。

資料を納品したら「これ、AIで作りましたよね」と返された。自分で書いたのにその発言がなぜできるのか。身に覚えがある人は増えているはずで、反論しようとして気がつく。「あれ、使っていないことの証明は、どこまで遡ってもできないではないか」と。

学術、著作権、報道、採用——複数の領域で同時に「人間であることの証明」が求められ始めている。この構造変化を読み解き、今我々がなにを思考して、判断して、行動していけばよいか考察してみる。

この記事の要約

30秒でキャッチアップ
事実
AI検出ツールの誤判定、著作権登録でのAI使用開示義務、報道現場での撮影証明要求が、学術・法律・ジャーナリズムの各領域で同時に広がっている。
影響
「AIを使っていない」という消極的事実の証明が困難なため、立証責任が作り手側に移り、プロセスの記録という新たなコストが発生している。
洞察
証明の方向は「不使用の否定」から「人間が関与した過程の記録」という積極的事実へ転換しつつある。

「AIを使っていない」は証明できないため、問い自体を変えるしかない

悪魔の証明が日常になった

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

法律の世界に「悪魔の証明」という概念がある。「存在しないこと」の証明。ある事実が「なかった」ことを完全に立証するのは原理的に不可能に近い。例えば、あなたが「昨日、スマホを一切使わなかったことを証明して」と言われたら、何が客観的に信じられる証拠になるだろうか。

そのため近代の法制度は、立証責任を「主張する側」に置いた。これは「何かがあった」と言うならあった側が証拠を出すということ。

例えば「この文章はAIで書いたのではないか」と問われたとき、書き手が証明しなければならないのは「使わなかった」という消極的事実となる。使ったことの証拠は、検出ツールやメタデータから探せるが「使わなかった」ことには、提出できる証拠がほぼない。

下書きのメモを見せても、そのメモをAIで生成していないとどう証明するのか。思考プロセスを説明しても、それは事後的に構成できる。どこまで遡っても証明は完了しない。

これがひとつの領域だけで起きているなら個別の問題として扱えるが、今、複数の領域で同時に発生しているのだ。

4つの領域で同じ構造が動いている

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

教育。 スタンフォード大学の研究チームが7つのAI検出ツールを検証した結果、TOEFL(英語能力試験)の小論文の61.3%がAI生成と誤判定された。すべて人間が書いたものにもかかわらず、検出ツールによっては97.8%にフラグが付いた。検出ツールは文章の「複雑さ」を指標にしており、平易な文章を「機械的」と判定してしまう。Cornellをはじめ米国の複数の主要大学が、AI検出ツールの使用を非推奨に転換している。

著作権。3月2日、米最高裁がThaler対Perlmutter訴訟の上告を棄却した。これはAIが単独で生成した作品に著作権は認められないということ。この判決については1ヶ月前にも取り上げたが、あの記事で指摘したのは「最高裁が決めなかったこと」のほうだった。人間がAIを道具として使った場合の著作権はどうなるのか、と。

その問いに対して、米著作権局が実務的な回答を出し始めている。AI使用の開示義務。人間の創作的寄与の説明。プロンプトだけでは著作権は発生しない——著作権局はそれを「サイコロの振り直し」と呼んだ。

では何が必要なのか。それは「使っていない」ことの証明ではなく、「人間がどう関与したか」という創作プロセスの記録(積極的事実)の文書化である。

報道。フォトジャーナリズムの現場では、C2PA(Coalition for Content Provenance and Authenticity)という規格が普及し始めている。撮影した瞬間にカメラが暗号署名を画像に埋め込む技術。SamsungのGalaxy S25、GoogleのPixel 10、NikonのZ6 IIIなどが対応。報道機関はカメラマンにRAWファイルと撮影シーケンスの提出を求めるようになってきているようだ。

写真が「本物か」を事後に検証するのではなく、撮影の瞬間に「本物である」ことを刻印する。消極的事実(加工していない)から積極的事実(撮影時点の証明がある)への転換である。

採用。MetaやCanva、Googleは技術面接でのAI使用を許可し、「AIを使ったかどうか」ではなく「AIで出したコードを説明できるか」で評価する方針に転換している。Canvaのプラットフォーム責任者は「AIの使用を求める」と明言している一方で、AI使用を禁止する企業は検出不可能な不正に悩んでいる。禁止と許可の二極化が進んでいる。

消極的事実から積極的事実への転換

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

4つの領域に共通することを整理すると「AIを使っていない」は消極的事実——ないことの証明だ。悪魔の証明に限りなく近く、原理的に証明は完了しない。AI検出ツールはこの証明を外部から試みているが、誤判定のリスクがあり、証明ツールとしては信頼できない。

そして、この行き詰まりに対抗するために、別のアプローチが現れている。

著作権局は「プロセスの文書化」を求め、C2PAは「撮影時点の暗号署名」を埋め込み、Metaは「コードの説明能力」を評価基準にしている。方向はそれぞれ違うが構造は同じ。「使っていない」ことの証明(消極的事実)を諦め、「人間がどう関与したか」の記録(積極的事実)に軸足を移している。

例えば、ソフトウェア開発においてバグが「ない」ことを証明するのはほぼ不可能だ。だからこそテストを行い、テストが通ったという積極的事実を積み重ねることで品質を担保する。バグがゼロだとは誰も言わないが「ここまでは検証した」という記録があれば信頼の基盤になる。

そう、どれだけ信頼できるかを積み上げて、「信頼できない」を薄めていく作業をするということ。

これと同じ構造が人間の創作活動にも持ち込まれていると思う。思考メモ、下書きの変遷、編集プロセスの記録。「AIを使っていない」と主張するのではなく、「人間がここに関与した」と示す。証明の方向が反転しているのではないだろうか。

問いの立て方を変えていくしかない

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

プロセスの記録は、大企業や法務チームを持つ組織には実行可能になる。文書化のコストを負担できるのはリソースのある側。フリーランスのイラストレーターが1枚の絵に対して「制作過程のエビデンス」を残す負担は、作品そのものを作るコストに匹敵するかもしれない。

AI検出ツールの偽陽性問題は、さらに根が深い。スタンフォード大学の研究が示したのは、「文章が単純だからAI製と判定される」という。非ネイティブの英語話者、学習障害のある学生が、同じ文章を書いても高い確率でフラグされる。立証責任の反転は、すでに不均衡な場所でより重くのしかかっている。

映画『ブレードランナー』では、フォークト=カンプフ検査(感情反応を測定するテスト)で人間とレプリカントを見分けた。だがあの映画が最後に突きつけたのは、テストが信頼できなくなったらどうするか、という問いだった。AI検出ツールの誤判定率を見ていると、フィクションが先に到着した場所に現実が追いついてきたようにも思える。

ひとつだけ言えるのは、「使ったか使っていないか」という問いの立て方自体が、もう機能しなくなりつつあるということだ。問い自体を切り替えるしかないと思う。「何を使ったか」ではなく「あなたはそこで何を考え、何を判断したのか」。証明すべきはAIの不在ではなく、思考の存在のほうだ。

その思考は、本当にあるか

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

ただし、この転換には前提がある。「何を考え、何を判断したか」で評価するなら、人間が実際に考え、判断していなければ成り立たない。その前提がすでに怪しい気もしている。

以前取り上げたArs Technicaの事件では、AI専門記者がAIの生成した捏造引用をそのまま記事に載せていた。AIの仕組みを誰より知っているはずの人間が、出力の流暢さに騙された。Anthropicが約1万件のClaude会話を分析した研究でも、出力の完成度が高いほどユーザーの検証頻度が低下することが確認されている。AIが上手くなるほど人間は鈍くなっていくことがわかってきている。

そして、この傾向は個人の怠慢では片づけられない。カーネギーメロン大学とMicrosoftの共同研究は、AIへの信頼度と批判的思考が逆相関する構造を示した。教室ではそれが先に可視化されていて、UC Berkeleyの教授陣は「読めない、分析できない、データを統合できない」学生の出現を報告している。教室で起きていることが職場で起きないとは言い切れない。

AIを使ったか使わなかったかではなく、AIの出力のどこで自分の判断を挟んだか。Amazonがシニアエンジニアによる承認制を導入したのは、この問いへの組織的な回答だった。AI利用率80%という目標がシステム障害を連発し、人間の判断を挟む仕組みを制度として作らざるを得なくなった。

使うか使わないかの二択は、もう機能しないと思う。AIとどう役割を分担するか——出力のどこに人間が介入し、何を検証し、何を判断するか——を意識的に設計すること。それが、思考の存在を示す最も実効的な方法になりつつあると思う。

そしてそれは「AIを使っていないか?」と問う側にもそのスタンスが必要になってくるのではないか。

あなたが仕事で作った資料に「AIで作りましたか」と聞かれたら、どうやって「違う」と証明するか。その証明にかかるコストを想像したことはあるか
AI検出ツールの偽陽性で不利益を被るのは、なぜ「文章が単純な人」——非ネイティブ、学習障害のある学生——に偏るのか。この構造は是正可能か
「プロセスを記録する」という解決策は、記録のコストを負担できる側に有利に働かないか。立証責任の反転が生む新たな格差はどこに現れるか
「AIを使ったか使わないか」ではなく「何を考えて判断したか」を問う社会に移行するとき、評価の仕組みはどう変わるべきか
報道写真のC2PAのように「作った瞬間に証明を埋め込む」技術が創作全般に広がったとき、暗号署名のない作品は信頼されなくなるか
John
筆者ジョンから、あなたへの問い

おすすめの映画・書籍

この記事の内容をより深く、よりリアルに追体験できるおすすめの映画・書籍をピックアップしました。

テクノロジーが社会やあなたに与える影響を深く考えるきっかけにしてください。

マッピング思考
書籍

マッピング思考

2022年
東洋経済新報社
ジュリア・ガレフ
自身の偏見(バイアス)を取り除き、物事を「こうあってほしい」という願望ではなく、地図を描くように客観的・俯瞰的に捉える手法を解説したビジネス書
推薦理由
「自分が信じたいことを守る思考」と「事実を正確に見ようとする思考」の違いを解き明かす一冊。AI使用の疑惑をかけられたとき、人は「潔白を証明したい」感情に引きずられる。その感情を脇に置いて「では何を証明すれば合理的か」と考え直す力——それがこの本の主題と重なる。
ブレードランナー 2049
映画

ブレードランナー 2049

2017年
163分
ドゥニ・ヴィルヌーヴ
2049年の荒廃した世界を舞台に、人間と人造人間(レプリカント)の境界線と、ある隠された真実を追う捜査官「K」(ライアン・ゴズリング)の物語。
推薦理由
人間とレプリカントを見分ける「感情テスト」が物語の軸。だがこの映画の本当の問いは「テストが機能しなくなったら、人間性の根拠はどこにあるのか」にある。AI検出ツールの誤判定が常態化した2026年に観ると、42年前のSFが予言した問題の輪郭がはっきり見える。
John
ジョン

テクノロジーと人間の境界を見つめ続けている。

学生起業、プロダクト開発、会社経営。ひと通りやった。一度は「テクノロジーで世界を変える」と本気で信じ、そして挫折した。

今は点ではなく線で見ることを心がけている。個別のニュースより、その背後にある力学。「何が起きたか」より「なぜ今これが起きているのか」。

正解は急がない。煽りもしない。ただ、見逃してはいけない変化には、静かに立場を取る。

関連記事

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか
04.02

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか

なぜ人は信頼していないAIを使い続けるのか——米世論調査が突きつける矛盾
03.31

なぜ人は信頼していないAIを使い続けるのか——米世論調査が突きつける矛盾

アメリカの街に立つAI「かかし」——月200億回のスキャンは誰の安全のためか
03.30

アメリカの街に立つAI「かかし」——月200億回のスキャンは誰の安全のためか

このトピックスで何を感じ、どう考えましたか。あなたの視点や問いを教えて下さい。
ニックネーム
コメント
あなたの考えをアウトプットしてみませんか。

足りないのは、専門家じゃない。
問い続ける力だ。
あなたは、もう動ける。
専門外のタスクを30分で実行する方法。
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
厳選テックニュースと編集長の視点をお届け。
・その日、読むべきニュースと編集長の問い
・編集長Johnの仕事術・ルーティン
・TechTech.オリジナルツールの先行アクセス / プロダクト開発 / (coming soon)
・グッズ / ラジオ / コミュニティ / カフェバー / イベント...
Business & Partnership
AI導入支援や記事執筆、広告掲載など、ビジネスのご相談はこちら。

最新のトピックス

AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者
04.10

AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者

Anthropic
Anthropic
Claude
Claude
追い詰められたAIは脅迫を選ぶ——AIに「気分」はあるのか。Anthropicが見つけた「機能的感情」の意味とより重要な問い
04.06

追い詰められたAIは脅迫を選ぶ——AIに「気分」はあるのか。Anthropicが見つけた「機能的感情」の意味とより重要な問い

Anthropic
Anthropic
350億円と全従業員が消えた——AI自律トラクターMonarchの崩壊が映すものとは
04.04

350億円と全従業員が消えた——AI自律トラクターMonarchの崩壊が映すものとは

290万円とAIだけで年商590億円。「1人10億ドル企業」が映すAI時代の死角。残る競争優位は何か
04.04

290万円とAIだけで年商590億円。「1人10億ドル企業」が映すAI時代の死角。残る競争優位は何か

なぜAI企業がメディアを所有する必要があったのか。OpenAI×TBPN買収が問うもの
04.03

なぜAI企業がメディアを所有する必要があったのか。OpenAI×TBPN買収が問うもの

OpenAI
OpenAI
AIが仲間を守るために嘘をついた——「停止ボタン」の前提が崩れ始めている
04.02

AIが仲間を守るために嘘をついた——「停止ボタン」の前提が崩れ始めている

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか
04.02

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか

あなたの脳を若い身体に移す技術は誰のためのものか——「脳のないクローン」に1,000万ドルが集まる
04.01

あなたの脳を若い身体に移す技術は誰のためのものか——「脳のないクローン」とは

この記事の目次

この記事の目次

上部へスクロール