数十億ドルのAIが10万回の質問で複製される——蒸留攻撃という新たな脅威


ZOO, inc. CEO / 毎日テクノロジーを追い、人間の可能性が拡張できるトピックスを探求している。
AIモデルの開発に数十億ドルを投じてきたGoogleとOpenAIが、「蒸留攻撃」と呼ばれる手法で自社モデルが模倣されていると相次いで訴えた。
Geminiには10万回以上のプロンプトが送り込まれ、内部ロジックの抽出が試みられた。OpenAIは米議会に対し、中国DeepSeekが偽装手段でChatGPTのデータを取得したと主張している。
膨大なウェブデータを取り込んで学習した企業が、今度は自社の「知能」を守る側に立っている。
この記事の要約
TechTechの視点
ここには構造的な矛盾がある。
GoogleもOpenAIも、ウェブ上の他者のデータを同意なく大量に取り込んで自社モデルを訓練してきた。その企業が今、「自社モデルの出力を無断で取り込むのは知的財産の窃盗だ」と主張している。
この非対称性を指摘するのは簡単だが、問題の本質はもう一段深い場所にある。蒸留によって数十億ドルの訓練コストがほぼゼロで複製できるなら、巨額投資でモデルを開発するインセンティブそのものが崩壊する。
つまり、蒸留を放置すれば「AIを一から開発する企業がいなくなる世界」に向かい、蒸留を禁止すれば「先行者が永遠に市場を支配する世界」に向かう。
先日配信した智譜AIの記事で取り上げた中国のAI自立戦略も、この構図の中にある。輸出規制という「正面からの遮断」が蒸留という「裏口からの取得」を加速させている可能性がある。
あなたがAIツールを選定する立場にいるなら、その選択肢の裏側にどちらの世界観があるのかを考える必要がある。

おすすめの映画・書籍
この記事の内容をより深く、よりリアルに追体験できるおすすめの映画・書籍をピックアップしました。
テクノロジーが社会やあなたに与える影響を深く考えるきっかけにしてください。

ブレードランナー 2049
報道記事・ソース
Google 脅威インテリジェンス:GTIG AI脅威トラッカー:敵対的利用のためのAIの蒸留、実験、そして(続)統合
関連記事
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。


















