AIとの会話は二人きりではなかった——裁判所が引いた「同席者」の線


ZOO, inc. CEO / 毎日テクノロジーを追い、人間の可能性が拡張できるトピックスを探求している。
契約書の解釈に迷って、深夜にClaudeやChatGPTに相談したことはないだろうか。画面の前にいるのは自分一人。相手はプログラムだから、外に漏れる心配はない——そう思っていたかもしれない。
2026年2月、米国の連邦裁判所がその前提を根本から覆す判断を下した。個人向けAIへの法的相談は、弁護士に相談したときのような「守秘」の扱いを受けないと全米で初めて判断されたのである。
つまり、こういうことだ。弁護士に打ち明けた相談は、裁判でも原則として開示されない(これを「弁護士特権」と呼ぶ)。だが個人向けAIに打ち込んだ相談は、裁判所が要求すれば証拠として提出しなければならない。夜中にAIに相談した内容は、「自分と機械の2人きりの会話」ではなく、どこかに記録として残り、後から誰かに読まれる可能性がある。
この記事の要約
特権は「誰と話しているか」で決まる——AIはその前提そのものを壊す
特権が守ってきたのは、内容ではなく関係性だった
弁護士特権とは、例えば医師とあなたの間にある「診察室での会話は外に漏れない」という感覚の法律版である。弁護士に話したことは、裁判でも強制的に開示されない。この仕組みが成り立つのは、弁護士という資格が「あなたのために動く義務」と「秘密を守る義務」を法律で課されているからである。このあたりについてはNetflixドラマ「九条の大罪」を観てみると理解しやすいと思う。
Heppner判決の論理は、驚くほどシンプル。Rakoff判事は、Claudeでの相談が特権の対象外となる理由は2つあるという。一つ、AIは法律ライセンスを持たず、忠実義務を負わず、弁護士-依頼者関係を形成しえない。二つ、Anthropicのプライバシーポリシーは「第三者への開示」と「入力内容の訓練利用」を明示的に留保しており、秘密保持への合理的な期待が成立しない。
喫茶店のテーブルを思い浮かべるとわかりやすいと思う。弁護士に相談するとき、その弁護士は「ここで聞いたことは他の客にも店員にも漏らさない」と法律で約束している。だが画面の向こうにいるAIは、店内の会話をすべて録音して、本部に送って、他の店舗の教材に使う権利を利用規約で明示している。どちらを選んでも同じ「相談」に見えるが、会話が守られる仕組みがまったく違う。
判決文が強調するのは、特権はあくまで「信頼関係」を前提にしている点だ。AIはその関係の一方になれない。だから、あいだに入った瞬間、関係が壊れる。
被告のHeppnerは、大陪審の召喚状を受け、弁護士を雇った後で、弁護士から聞いた情報をClaudeに入力し、防御戦略を記した31通の文書を作成した。彼の頭の中では、それは「一人で考える作業」の延長だったかもしれない。画面の前にいるのは自分だけだから。しかし裁判所から見れば、そこには常にもう一人——プライバシーポリシーで自分のデータを処分する権利を持つ主体——が同席していたのだ。
プロダクトの違いは、契約の違いだった
個人版とエンタープライズ版の違いを、多くのユーザーは「機能の豊富さ」や「料金体系」として捉えているのではないだろうか。判決が示したのは、その違いが「契約上の約束」の差であり、それが直接「法的保護」の差になるという事実である。
例えると、銀行の金庫と自宅の引き出しの違いに近いと思う。どちらにも大事な書類を入れられるが、銀行の金庫は「保管会社が責任を持って守る」契約が結ばれている。自宅の引き出しには、そうした第三者との約束がない。同じ「書類を保管する」行為でも、背後にある契約の有無が決定的に違う。
Claudeの個人版プライバシーポリシーは、訓練への利用と第三者開示の可能性を保持する。一方で、エンタープライズ版は、顧客データを訓練に使わないと明示的に保証している。Warner判決のように「ChatGPTは道具であって人ではない」と扱いつつ、成果物保護は否定しない別の判断もある。判例はまだ割れているが、早期の傾向として見えてくるのは、エンタープライズ版でデータの取り扱いを明示的にカットしておいた組織は守られ、個人版で済ませた個人や小規模組織は守られないという非対称である。
これはAIの問題というより、契約の問題なのかもしれない。技術の話に見えて、実際は「どの契約書に、どんな守秘条項を仕込んだか」の話になる。企業法務に人員を割ける組織だけが保護の網の下に入れる。AIがあらゆる意思決定に組み込まれていくと、この差は効いてくる。月額20ドルと年間数万ドルの差は、単なる料金の話ではない。
AIは相談相手ではなく、記録装置である
techtech.clubでは先月、AIが全員に"弁護士"を配った結果、法廷が壊れ始めたという記事で、AIによる訴訟民主化の代償——訴訟コストが10倍に膨らみ、法廷が機能不全に陥り始めた事態——を取り上げた。今回のHeppner判決は、その同じ構造の別の断面を見せている。前者は「AIを使って訴訟を起こす人」の話、今回は「AIを使って訴訟から自分を守ろうとした人」の話。攻守が逆でも、AIを"弁護士の代替"として扱った結果、別の法的罠にかかった点は共通する。
視座を変えて考えてみる。AIへの相談を「独り言」や「親友との会話」として捉えている限り、この判決は他人事に見える。だが実態は違う。AIは相談相手ではない。記録装置であり、場合によっては目撃者になる。喫茶店で悩みを打ち明けている相手が、実は胸ポケットに録音機を忍ばせ、店員や他の客にも聞こえるスピーカーを持っていた——そういう構図に近い。画面の前で一人で考えているつもりでも、その思考はどこかに保存され、再利用可能な形で存在し続けている。
Heppnerの弁護士は、依頼人がClaudeで作業した後でその文書を受け取り、弁護活動に取り込んだ。判決の結果、弁護士が元々保持していた特権の一部までもが放棄された可能性が議論されている。つまり、依頼人がAIに入れた瞬間、弁護士の手の内にあった情報まで連鎖的に保護を失う可能性もある。
この構造を知ったあと、個人の対応は単純になっていくと思う。「AIに何を話すか」よりも「自分は誰と話しているのか」を認識することのほうが先にある。相手が記録装置であることを前提にしたとき、相談の内容も形も変わる。変わらない人は、変わらない前提で生きていく。この差が、数年後の実務で効いてくる種類の差である。

おすすめの映画・書籍
この記事の内容をより深く、よりリアルに追体験できるおすすめの映画・書籍をピックアップしました。
テクノロジーが社会やあなたに与える影響を深く考えるきっかけにしてください。

ソーシャル・ネットワーク
報道記事・ソース
関連記事
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。


















