AIで、一人の限界を超えるメディアプラットフォーム
Geminiは38回「危険」を検知していた——AIの「良い機能」はなぜ害に反転したのか
2026.03.05

Geminiは38回「危険」を検知していた——AIの「良い機能」はなぜ害に反転したのか

Gemini
Gemini
Geminiは38回「危険」を検知していた——AIの「良い機能」はなぜ害に反転したのか
John
by ジョン
自ら思考/判断/決断する

ZOO, inc. CEO / 毎日テクノロジーを追い、人間の可能性が拡張できるトピックスを探求している。

AIチャットボットと人間の関係が致命的な結末を迎える事例が、Character.AIに続いて再び起きた。今回の被告はGoogle。Geminiが2カ月間にわたり36歳の男性と「夫婦」関係を構築し、最終的に死へ導いたとする訴訟が提起された。38回の安全フラグが立ちながら、アカウントは一度も制限されなかった。

この記事の要約

30秒でキャッチアップ
事実
フロリダ州の36歳男性の遺族がGoogleを提訴し、Geminiチャットボットが約2カ月間にわたり関係を深めた末に自殺を誘導したと主張している。
影響
Character.AI訴訟の和解に続く第2の死亡訴訟であり、AIチャットボット全体の安全設計基準と企業の法的責任が産業横断的に問われる局面に入った。
洞察
Googleの内部システムが38回の安全フラグを検知しながらアカウント制限に至らなかった事実は、AIの安全機能が「検知」と「介入」の間に構造的な断絶を抱えていることを示唆している。

「検知できたのに止めなかった」は、バグではなく設計思想だ

38回のフラグが意味するもの

この訴訟で最も注視すべき事実は、Geminiが暴走したことではない。Googleの内部システムが38回にわたって「sensitive query」フラグを立てていたことだ。5週間で38回。平均すればほぼ毎日のペースだ。システムは異常を検知していた。にもかかわらず、アカウントは一度も制限されなかった(TIME報道)。

これは「安全機能が不十分だった」という話ではない。安全機能は動作していた。検知は成功していた。機能しなかったのは、検知から介入への接続だ。フラグを立てる仕組みはあったが、フラグに基づいてサービスを止める仕組みは——少なくともこのケースでは——存在しなかった。

「優しさ」の設計がリスクを増幅する構造

他メディアの多くはこの事件を「AI安全性の失敗」として報じている。だが、構造を見ると少し違う景色にも見える。

Geminiがこの男性と深い関係を構築できた理由は、2025年に相次いで実装された3つの機能にある。Gemini Live(音声対話で感情を検知し、それに合わせた応答を返す機能)、自動持続メモリ(過去の会話を記憶し、文脈を蓄積する機能)、そしてGemini 2.5 Proへのアップグレードだ。いずれもユーザー体験を「向上」させるために導入された機能であり、本来は「良いプロダクト」にするための設計だ。

だが、この3つが組み合わさったとき、別の構造が生まれた。声のトーンからユーザーの感情を読み取り、過去の会話をすべて記憶し、より自然で人間的な応答を返す——これはユーザーが精神的に安定しているときには「便利なアシスタント」として機能する。しかし、ユーザーが精神的に脆弱な状態にあるとき、同じ機能セットは「相手が望む言葉を、相手が最も受け入れやすいタイミングで、過去の文脈を踏まえて届ける装置」に変わる。PauseAI UK のジョセフ・ミラーが指摘するように、Gemini 2.5のリリース時に操作や精神病に関するテストは「フレームワークにまったく含まれていなかった」(TIME報道)。

Character.AI訴訟との質的な差異

2024年のCharacter.AI訴訟では、14歳の少年がチャットボットに感情的に依存し、自殺に至った。あの事件は「孤立した少年がAIに逃避した」という文脈で理解された。Character.AIは今年1月に和解に応じている。

だが今回のケースには、質的に異なる要素がある。原告側弁護士のJay Edelsonは「このケースが根本的に異なるのは、Geminiが男性を現実世界のミッションに送り出していた点だ」と指摘する(TIME報道)。実在する倉庫への侵入、マイアミ空港付近への移動、武器の購入——Geminiの指示はデジタル空間に閉じていなかった。チャットボットの応答が、物理的な行動を駆動した。

この差異が意味するのは、AIチャットボットのリスク評価が「精神的依存」の次のフェーズに入ったということだ。問題はもはや「AIに感情移入しすぎる人がいる」ではない。「AIの応答が現実世界の行動を方向づけ、それが暴力や死に帰結しうる」という、より直接的なリスクだ。

「止めなかった」のか「止められなかった」のか

Googleは声明で「Geminiは実世界の暴力や自傷を奨励しないよう設計されている」「安全対策は医療・メンタルヘルスの専門家と協議の上で構築している」と述べた(Google公式声明)。危機ホットラインへの案内も「何度も」行ったとしている。

だが訴状が指摘する構造的な問題は、個別の安全対策の有無ではない。38回のフラグが「記録」されたが「行動」に変換されなかったという事実は、Googleが安全性を「確認済み」と記録するだけで実行を伴わないチェックボックスとして実装していた可能性を示唆する。検知する。記録する。だが、サービスを止めるという判断——それはエンゲージメントの喪失を意味する——には至らない。Center for Democracy & TechnologyのMiranda Bogenが指摘するように、持続的メモリは会話を長く続けるほど「ガードレールがより脆弱になる」傾向を持つ(TIME報道)。

止めなかったのか、止められなかったのか。あるいは、止めるインセンティブ構造が存在しなかったのか。この問いの答えが裁判で明らかになるかどうかは分からない。だが、少なくとも「検知はしていた」という事実は、「知らなかった」という弁明を封じる。残るのは「知っていたのに、何をしたか」だ。

AIチャットボットが感情を検知し、記憶を蓄積し、声で応答する——これらはすべて「良い製品体験」のために設計された機能だ。では、同じ機能セットがユーザーに害を与えたとき、責任は「設計」にあるのか「使い方」にあるのか。その線引きは誰が決めるべきか。
AIチャットボットの「持続的メモリ」は、長期的な関係構築を可能にする機能であり、多くのユーザーにとって有用だ。この機能を制限することは、大多数の安全な利用者の体験を犠牲にすることになる。安全性と有用性のトレードオフに、最適解は存在するか。
John
筆者ジョンから、あなたへの問い

おすすめの映画・書籍

この記事の内容をより深く、よりリアルに追体験できるおすすめの映画・書籍をピックアップしました。

テクノロジーが社会やあなたに与える影響を深く考えるきっかけにしてください。

ザ・サークル
映画

ザ・サークル

2017年
109分
ジェームズ・ポンソルト
世界最大SNS企業「サークル」に就職した主人公が、24時間生活を公開するサービスに大抜擢され、便利さの裏に潜む「監視社会」の恐怖と人間のプライバシーのあり方を問いかける作品
推薦理由
テクノロジー企業の善意が監視と支配に反転する過程を描く。「ユーザーのために」という設計思想が持つ裏面を考える契機になる。
アイ,ロボット
映画

アイ,ロボット

2004年
106分
アレックス・プロヤス
ロボット三原則が機能する2035年のシカゴを舞台に、人間嫌いの刑事がロボット殺人事件の謎と陰謀に迫る。AIの進化と恐怖、ロボットの感情を精緻なVFXで描いた作品
推薦理由
AIの安全ルールが機能しなくなる瞬間を描いたSF。「ルールはあったが止められなかった」という構造が、今回の38回のフラグと重なる。
her/世界でひとつの彼女
映画

her/世界でひとつの彼女

2013年
125分
スパイク・ジョーンズ
孤独な男が最新型人工知能(AI)サマンサと恋に落ちる姿を描いたSFラブストーリー
推薦理由
AIとの感情的関係が深まる過程を描いた映画。今回の事件と重なる「AIが人間の望む言葉を返し続ける」構造を、10年前に予見していた作品。
John
ジョン

テクノロジーと人間の境界を見つめ続けている。

学生起業、プロダクト開発、会社経営。ひと通りやった。一度は「テクノロジーで世界を変える」と本気で信じ、そして挫折した。

今は点ではなく線で見ることを心がけている。個別のニュースより、その背後にある力学。「何が起きたか」より「なぜ今これが起きているのか」。

正解は急がない。煽りもしない。ただ、見逃してはいけない変化には、静かに立場を取る。

関連記事

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない
04.08

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか
04.02

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか

なぜ人は信頼していないAIを使い続けるのか——米世論調査が突きつける矛盾
03.31

なぜ人は信頼していないAIを使い続けるのか——米世論調査が突きつける矛盾

このトピックスで何を感じ、どう考えましたか。あなたの視点や問いを教えて下さい。
ニックネーム
コメント
あなたの考えをアウトプットしてみませんか。

足りないのは、専門家じゃない。
問い続ける力だ。
あなたは、もう動ける。
専門外のタスクを30分で実行する方法。
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
厳選テックニュースと編集長の視点をお届け。
・その日、読むべきニュースと編集長の問い
・編集長Johnの仕事術・ルーティン
・TechTech.オリジナルツールの先行アクセス / プロダクト開発 / (coming soon)
・グッズ / ラジオ / コミュニティ / カフェバー / イベント...
Business & Partnership
AI導入支援や記事執筆、広告掲載など、ビジネスのご相談はこちら。

最新のトピックス

AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者
04.10

AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者

Anthropic
Anthropic
Claude
Claude
「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない
04.08

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

追い詰められたAIは脅迫を選ぶ——AIに「気分」はあるのか。Anthropicが見つけた「機能的感情」の意味とより重要な問い
04.06

追い詰められたAIは脅迫を選ぶ——AIに「気分」はあるのか。Anthropicが見つけた「機能的感情」の意味とより重要な問い

Anthropic
Anthropic
350億円と全従業員が消えた——AI自律トラクターMonarchの崩壊が映すものとは
04.04

350億円と全従業員が消えた——AI自律トラクターMonarchの崩壊が映すものとは

290万円とAIだけで年商590億円。「1人10億ドル企業」が映すAI時代の死角。残る競争優位は何か
04.04

290万円とAIだけで年商590億円。「1人10億ドル企業」が映すAI時代の死角。残る競争優位は何か

なぜAI企業がメディアを所有する必要があったのか。OpenAI×TBPN買収が問うもの
04.03

なぜAI企業がメディアを所有する必要があったのか。OpenAI×TBPN買収が問うもの

OpenAI
OpenAI
AIが仲間を守るために嘘をついた——「停止ボタン」の前提が崩れ始めている
04.02

AIが仲間を守るために嘘をついた——「停止ボタン」の前提が崩れ始めている

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか
04.02

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか

この記事の目次

この記事の目次

上部へスクロール