AIで、一人の限界を超えるメディアプラットフォーム
包丁・銃の作り手は問えないが、AIはどうか。OpenAIが立たされている重要な問い
2026.05.01

包丁・銃の作り手は問えないが、AIはどうか。OpenAIが立たされている重要な問い

chatgpt
ChatGPT
OpenAI
OpenAI
包丁・銃の作り手は問えないが、AIはどうか。OpenAIが立たされている重要な問い
John
by ジョン
自ら思考/判断/決断する

ZOO, inc. CEO / 毎日テクノロジーを追い、人間の可能性が拡張できるトピックスを探求している。

我が子がスマホの向こうでAIと長く話している。親としては「暴力的なものでなければいい」と思いつつ、画面の中身までは追えない。その日常をなぞった先に、カナダの小さな町で起きた銃撃事件はある。

OpenAIは半年前から社内で本人の危険性を議論していた。それでも警察に伝えなかった。AI企業が「いつ、どこに通報すべきか」を決める基準は、業界のどこにも書かれていない。

この記事の要約

30秒でキャッチアップ
事実
OpenAIは2025年6月、ChatGPT利用者の暴力的会話を社内で危険と判断しながら警察に通報しなかった。2026年2月、本人がカナダの中学校で銃撃を実行し、児童5人と教職員1人が死亡。遺族7家族が同社を提訴。
影響
自主規制下のAI業界に、事故報告の閾値も再登録防止の実効性も存在しないことが訴状で具体的に示されている。
洞察
AIの社会的事故をどう扱うかについて、業界も社会も共通の言葉をまだ持っていない。

包丁にも銃にも当てはまらないAIに、私たちはまだ事故の言葉を持たない

半年前に社内で議論された「危険」が、警察には届かなかった

包丁・銃の作り手は問えないが、AIはどうか。OpenAIが立たされている重要な問い

事実関係をまず短く整理。OpenAIの社内では、2025年6月の段階で、後に銃撃を起こす利用者のChatGPTでの会話が「他者の生命に対する差し迫った脅威」として議論されていたとWSJは報じている。安全チームの人間レビュアーは法執行機関への通報を経営陣に求めた。十数名が議論し、最終的には通報せず、アカウントを停止する判断が下されたという。

ここで止めて考えたいのは、「経営陣が安全チームの声を上書きした」という形そのものは、すでに見たことがあるという点。OpenAIはこれまでも、自社の安全委員会の全会一致の判断を無視した記事で取り上げたように、社内の安全判断を上位の経営判断で覆す構造を繰り返してきた。今回はその構造が、社外の人命と直接接続したことになる。

そして、もう一つ気になる事実がある。アカウント停止後に同じ利用者が新しいアカウントを作ったとき、それを「ガードレールの回避」とOpenAIは説明した。だが訴状によれば、本人は同社のサポートが案内している通りの、別のメールエイリアスで即時再登録をなぞっただけだったという。「BAN」と「30日待つか、別アドレスで今すぐ戻ってきていい」が同じ製品の中にある。「禁止」という言葉が何を指すのか。

包丁を作った人間は問えない、では何が違うのか

包丁・銃の作り手は問えないが、AIはどうか。OpenAIが立たされている重要な問い

訴訟そのものに対しては、冷静に見ると筋違いに感じる部分がある。包丁で人が刺された事件で、包丁を作った人間が問われることは基本的にない。銃でも、ほとんどの責任は引き金を引いた当事者になる。本来責められるべきは行為者であって、道具を作った会社ではない——という古典的な構図がここにはある。

ただし、その構図は道具側の性質と社会への根づき方によって、毎回少しずつ書き換えられてきたのも事実。米国は銃が国民生活に深く根づいた社会で、「相手も銃を持っているかもしれない」という前提で日常が組み立てられている、という事実からは逃れられない。日本のように、その発想がそもそも存在しない国とは、まったく別の社会になっている。道具が社会の様式を変えるくらいまで普及すると、道具を作る側の責任の話を一切しないのは難しい。米国でSNSに対する集団訴訟が起きはじめたとき、社会の側がそう判断したことはすでに見ている——「Big Tobacco」化したSNS設計責任の記事で取り上げた構図が、今度はAIで繰り返されようとしている。

そう考えると、今回の訴訟が「無理筋」に見えるかどうかは、AIを包丁の側に置くか、銃の側に置くか、それともSNSの側に置くかで変わってくる。AIは直接的な凶器ではない。一方で、利用者の認知や判断に対する影響力という意味では、包丁よりも銃よりも個々人に深く入り込む。直接的に殺傷しないからこそ、「AIが本人の判断に影響を与えた」という主張が成立しやすくなる。古い責任モデルのどれを当てはめても、収まりが悪いと感じている。それが今、訴訟という形で表面化している。

自動車には設計責任があるのに、AIにはなぜないのか

包丁・銃の作り手は問えないが、AIはどうか。OpenAIが立たされている重要な問い

参考になりそうな業界として、自動車を考えてみる。自動車は、運転者にシートベルトや免許という形で個人側の安全を求めるだけでなく、メーカー側にも安全装置の搭載と設計上の安全性を法的に義務づけている。事故が起きれば運輸当局に報告する義務もある。

この構造をAIに重ねたときに見えてくるのは、AI業界には、自動車にあるような「いつ、どんな事象を、誰に報告するか」のラインそのものがまだ書かれていないということ。Wiredが報じている通り、OpenAIは、フロンティアAIモデル(学習計算に1億ドル超を投じたモデル)が引き起こした「重大被害」について、安全・セキュリティ・透明性レポートを自社サイトに公開している事業者は、故意または無謀でない限り責任を問われない、とする法案に賛同している。「重大被害」には、化学・生物・放射線・核兵器の悪用や、100人以上の死傷/10億ドル(約1,500億円)超の物的損害が並んでいる。

ここで起きていることをそのまま言えば、業界側は「事故報告の閾値(どの段階の事象から、誰に何を伝えるかの境界線)」を書く前に、まず「大きな事故が起きたときの責任を、レポートを出していれば免じてほしい」という線を引きにいっている。順序が逆ではないか、と自分は感じる。本来であれば、報告義務と境界線が先にあり、その上で誠実に運用した事業者を限定的に免責するという流れではないだろうか。今回のような「100人未満」の事象は、この法案の枠組みではそもそも論点にならない。

自分は法律の専門家ではないし、調べている限りの情報のため、もしかしたら抜けているところもあるかもしれない。ただ、「事故が起きてから免責の線を引きにいく」順序は、ふつうは消費者側の信頼を擦り減らす設計になる。それは過去の自動車・医薬品・SNSの歴史を見ていれば、ある程度予測できる。

規制は「持つ者と持たざる者」を再生産しないか

包丁・銃の作り手は問えないが、AIはどうか。OpenAIが立たされている重要な問い

ここまで書いた上で、「だから政府が介入してAIを規制すればいい」という結論には、うまく着地できない。

規制が入った瞬間に、規制官庁とAI事業者と既存ロビイストの間に新しい利害関係が組み上がる。これまでの金融・通信・医薬品の歴史で繰り返されてきた、「規制を満たす体力がある側だけが残り、満たせない小さな主体は退場する」構造が、AIでも生まれる可能性は高い。資本主義の悪い癖がそのまま転写されると、結局のところ「持つ者」と「持たざる者」の構図が、AIという新しい層でもう一度作られる。

それでも何か基準が要るとすれば、自分が想像できる範囲では、自動車のように免許制で利用者の側を縛る方向(講習を受けた人間しか高度なAIを使えない)か、AIメーカーに自社AIを監視するサードパーティの監視AI導入を義務づける方向(外部の監査業者をAI化して常時監視させる)か、そのあたりが現実的な選択肢に見える。ただし、これらはどれも、いまの責任の言葉のままで考えた延長線上の答えにすぎない。

AIというイノベーションが「これまでの延長線では収まらない」ものなのだとしたら、責任・報告・免許といった既存の言葉でいくら塗り重ねても、どこかで歪みが残るはず。今回の遺族が「AIを罪に問えるのか」という問いを社会に突きつけているのは、その歪みが最も露わになる地点であって、ここで答えが出ないのは私たちの言葉が追いついていないからだと考えている。少なくとも自分の中では、まだ答えは出ていない。

AI企業は「人に危害を加える兆候」をどの段階で、誰に伝えるべきか。その閾値を社会は誰に預けるのか。
「BAN」と「30日待つか別アドレスで戻れる」が同居する製品の言葉を、あなたはどこまで信じられるか。
AIを包丁・銃・自動車・SNSのどれかに重ねて考えることは、本当に妥当か。当てはまらないなら、どんな新しい責任モデルが要ると思うか。
法律で報告義務を作れば解決する問題か。それとも、規制が新しい「持つ者と持たざる者」を作る側面をどう見るか。
自分の家族が同じ立場——加害者の側にも被害者の側にも——立ったとき、AIに何を期待し、何を諦めるか。
John
筆者ジョンから、あなたへの問い

おすすめの映画・書籍

この記事の内容をより深く、よりリアルに追体験できるおすすめの映画・書籍をピックアップしました。

テクノロジーが社会やあなたに与える影響を深く考えるきっかけにしてください。

あなたを支配し、社会を破壊する、AI・ビッグデータの罠
映画

あなたを支配し、社会を破壊する、AI・ビッグデータの罠

2018年
インターシフト
キャシー・オニール
アルゴリズムが人々の生活を不当に評価し、格差を固定化させる危険性を警告したノンフィクション作品
推薦理由
アルゴリズムが社会のどこに「説明できない決定」を埋め込むかを、保険・教育・採用の現場から具体的に解剖する一冊。報告義務がない自動化が何を生むかを、AI以前の事例で先取りできる。
監視資本主義:デジタル社会がもたらす光と影
ドキュメンタリー

監視資本主義:デジタル社会がもたらす光と影

2020年
94分
ジェフ・オーロースキー
ソーシャルメディアの危険な人間への影響を探るドキュメンタリードラマ
推薦理由
SNSの設計者たち自身がカメラの前で「自分たちが作ったものに責任がある」と語り直すドキュメンタリー。AI企業が今まさに通過しようとしている地点を、SNS側がどう通過したかが見える。
John
ジョン

テクノロジーと人間の境界を見つめ続けている。

学生起業、プロダクト開発、会社経営。ひと通りやった。一度は「テクノロジーで世界を変える」と本気で信じ、そして挫折した。

今は点ではなく線で見ることを心がけている。個別のニュースより、その背後にある力学。「何が起きたか」より「なぜ今これが起きているのか」。

正解は急がない。煽りもしない。ただ、見逃してはいけない変化には、静かに立場を取る。

関連記事

AIゴールドラッシュ。AIに業務を任せた一人社長は自分が「金を掘る側」だと気づいているか
04.30

AIゴールドラッシュ。AIに業務を任せた一人社長は自分が「金を掘る側」だと気づいているか

AIが人件費を超え始めた——その後ろで動いている"企業がAIに投資を続ける"はなぜか
04.28

AIが人件費を超え始めた——その後ろで動いている"企業がAIに投資を続ける"はなぜか

Uber
Uber
NVIDIA
NVIDIA
OpenAI
OpenAI
AIビジネス崩壊の危機?ユーザー獲得の終わり収益化の始まり。AIの「次の一手」とは
04.25

AIビジネス崩壊の危機?ユーザー獲得の終わり収益化の始まり。AIの「次の一手」とは

Anthropic
Anthropic
Google
Google
OpenAI
OpenAI
このトピックスで何を感じ、どう考えましたか。あなたの視点や問いを教えて下さい。
ニックネーム
コメント
あなたの考えをアウトプットしてみませんか。

足りないのは、専門家じゃない。
問い続ける力だ。
あなたは、もう動ける。
専門外のタスクを30分で実行する方法。
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
厳選テックニュースと編集長の視点をお届け。
・その日、読むべきニュースと編集長の問い
・編集長Johnの仕事術・ルーティン
・TechTech.オリジナルツールの先行アクセス / プロダクト開発 / (coming soon)
・グッズ / ラジオ / コミュニティ / カフェバー / イベント...
Business & Partnership
AI導入支援や記事執筆、広告掲載など、ビジネスのご相談はこちら。

最新のトピックス

AIゴールドラッシュ。AIに業務を任せた一人社長は自分が「金を掘る側」だと気づいているか
04.30

AIゴールドラッシュ。AIに業務を任せた一人社長は自分が「金を掘る側」だと気づいているか

Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」
04.28

Webの3分の1がAI生成に。AIが持ち込んだのは嘘ではなく「漂白された明るさ」と「同じような主張」

AIが人件費を超え始めた——その後ろで動いている"企業がAIに投資を続ける"はなぜか
04.28

AIが人件費を超え始めた——その後ろで動いている"企業がAIに投資を続ける"はなぜか

Uber
Uber
NVIDIA
NVIDIA
OpenAI
OpenAI
強いAIが静かに勝っていく——Anthropic社内69人の実験が示した「気づかれない格差」
04.27

強いAIが静かに勝っていく——Anthropic社内69人の実験が示した「気づかれない格差」

Anthropic
Anthropic
Claude
Claude
AIビジネス崩壊の危機?ユーザー獲得の終わり収益化の始まり。AIの「次の一手」とは
04.25

AIビジネス崩壊の危機?ユーザー獲得の終わり収益化の始まり。AIの「次の一手」とは

Anthropic
Anthropic
Google
Google
OpenAI
OpenAI
あなたが毎日使うAIは、妄想を強化する側か、止める側か——AI精神病研究が示したチャットボットの明暗
04.24

あなたが毎日使うAIは、妄想を強化する側か、止める側か——AI精神病研究が示したチャットボットの明暗

Grok
Grok
Gemini
Gemini
Claude
Claude
chatgpt
ChatGPT
働くほど自分を不要にするAIが育っていく——Metaが社員の作業ログ収集へ。熟練はだれの資本か
04.23

働くほど自分を不要にするAIが育っていく——Metaが社員の作業ログ収集へ。熟練はだれの資本か

Meta Llama
Meta
AIとの会話は二人きりではなかった——裁判所が引いた「同席者」の線
04.23

AIとの会話は二人きりではなかった——裁判所が引いた「同席者」の線

Claude
Claude
この記事の目次

この記事の目次

上部へスクロール