ビデオ通話で本人確認したはずの相手が、AIだったらどうするか

「ビデオ通話で顔を確認したから安心」——この前提が崩れつつある。WIREDの調査により、テレグラム上で「AIフェイスモデル」を募集するチャンネルが数十件確認された。主に若い女性が応募し、その顔はリアルタイムのディープフェイク技術でロマンス詐欺に使われる。日本でも警察庁がSNS型ロマンス詐欺の被害急増を警告する中、詐欺のサプライチェーンにAIが組み込まれている。
トピックスの要約
何が起きている?
- WIREDがテレグラムで「AIフェイスモデル」募集チャンネルを数十件確認。
- 募集対象は主に若い女性。「1日100回のビデオ通話」を求める求人も。
- 顔変換ツールは50以上のパラメータを調整可能。WhatsApp等と連携。
- 一部の応募者は詐欺への加担を認識した上で応募している。
TECHTECH.の視点・洞察
「ビデオ通話で確認」が通用しなくなる日
これまでロマンス詐欺への対策として広く推奨されてきたのは、「相手にビデオ通話を求めること」だった。テキストや写真は偽造できても、リアルタイムの映像は偽れない——そういう前提だ。
WIREDの調査は、この前提が崩壊しつつあることを示している。現在のディープフェイク技術は、リアルタイムで顔を変換しながらビデオ通話を行える段階に到達した。頬骨の高さ、目の位置、肌の質感まで50以上のパラメータを調整でき、WhatsAppやWeChatといった一般的なメッセージアプリと直接連携する。通話の相手は実在する人間だ。ただし、その「顔」は別人のものになっている。
詐欺の「労働市場」が成立している
この調査で最も注視すべき発見は、ディープフェイク技術そのものではない。「AIフェイスモデル」という職種が求人市場に出現していることだ。
従来の詐欺は、犯人が自ら嘘をつき、自ら信頼を構築し、自ら金を奪う——一人完結型の犯罪だった。だが今回WIREDが確認した構造は違う。顔を提供する人(モデル)、顔変換技術を提供する人(ツール開発者)、実際に被害者と接触する人(実行者)が分業化している。「在宅勤務」「柔軟な勤務時間」「高収入」——求人の文言は、合法的なリモートワークと見分けがつかない。
一部の応募者は詐欺への加担を認識した上で応募している。これは道徳的な堕落の話としてだけでなく、経済的インセンティブの構造として読むべきだろう。「顔を貸すだけ」で収入が得られるとき、その行為と被害者の損失の間にある因果関係は、応募者の視界から見えにくい。
124億ドルの産業——pig-butchering詐欺の規模
「pig-butchering(豚の屠殺)」と呼ばれるこの詐欺手法は、Chainalysisの推定によると2024年だけで124億ドル(約1兆8,600億円)の被害を生んでいる。2020年以降の累計被害額は少なくとも753億ドル(約11兆3,000億円)に達する。北カリフォルニア14郡のロマンス詐欺被害は2025年に4,330万ドル(約65億円)と前年比2倍に跳ね上がった。
日本も無縁ではない。警察庁はSNS型ロマンス詐欺の被害急増を報告しており、マカフィーの7カ国調査(2025年2月、7,000人対象)では有名人なりすまし詐欺の被害に遭った日本人の27%が金銭を失い、平均損失額は約78万5,000円だった。INTERNET Watchの報道では、日本でもディープフェイク技術を使ったビデオ通話によるロマンス詐欺が確認されている。
「信頼の検証手段」が消えるとき
この問題の構造的な核心は、人間が「信頼」を判断するための手段が技術的に無効化されていくことにある。テキストはAIで生成できる。写真はAIで合成できる。そして今、ビデオ通話もAIで偽装できる。残された「本人確認」の手段は何か。
対面で会うこと——これが最後の砦だが、ロマンス詐欺の構造上、対面の機会は意図的に先延ばしにされる。つまり、デジタルコミュニケーションの範囲内では、もはや「本物の人間と話しているかどうか」を個人が判断する確実な方法がない段階に近づいている。これはロマンス詐欺だけの問題ではない。ビジネスの商談、採用面接、カスタマーサポート——ビデオ通話で「本人確認」を行うあらゆる場面に波及しうる構造だ。

さらに掘り下げる

Tinder詐欺師: 恋愛は大金を生む
報道記事・ソース
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。








