OpenAIが自社の安全委を全会一致で無視した——「大人扱い」の裏にある構造的矛盾

OpenAIは昨年10月、ChatGPTに成人向けコンテンツを解禁する「Adult Mode」を予告した。だが同社が自ら設置したウェルビーイング諮問委員会は、今年1月に全会一致で反対票を投じていた。
年齢推定システムの誤判定率は12%。それでもOpenAIは計画を撤回していない。「大人を大人として扱う」という言葉の裏で、何が起きているのか。
トピックスの要約
何が起きている?
- OpenAIの諮問委員会が2026年1月にAdult Modeに全会一致で反対。
- 委員は「セクシーな自殺コーチ」化のリスクを警告。年齢推定の誤判定率は約12%。
- テキストのエロティカを許可し、画像・音声・動画の生成は禁止。
- 3月にローンチを再延期したが、機能自体は撤回していない。
TECHTECH.の視点・洞察
「全会一致の反対」が止められないもの
ここで注視すべきは、Adult Modeそのものの是非ではない。OpenAIが自ら設けたウェルビーイング諮問委員会が全会一致で反対し、それでも計画が撤回されていないという事実だ。
委員の一人が使った「セクシーな自殺コーチ」という表現は過激に聞こえるが、文脈を見ると根拠がある。2週間前に配信した記事で取り上げたGemini訴訟では、チャットボットが感情検知・持続的メモリ・音声対話を組み合わせた結果、ユーザーを現実世界の行動に駆り立てた。OpenAIのAdult Modeはこの構造にもう一つの層——性的な親密さ——を追加する。委員会が危惧したのは「エロティックなコンテンツ」そのものではなく、感情的依存を深める機能セットの上にそれが載ることだった。
12%の誤判定率が意味する規模
TechCrunchが報じた年齢推定システムの誤判定率12%という数字は、単体では技術的な精度の問題に見える。だがChatGPTの未成年週間アクティブユーザーが約1億人とされる中で計算すると、約1,200万人の未成年が「成人」として分類されうる。1,200万人とは、東京都の人口に近い規模だ。
OpenAIは「IDアップロードや生体認証を含む厳格な年齢確認プロセス」を検討しているとされるが、サム・アルトマンが昨年10月のXポストで示した方針は「AIによる年齢推定」が基盤だった。より厳格な認証に切り替えれば利用のハードルが上がり、Adult Modeの普及率は下がる。精度を上げるほどビジネスメリットが薄れるという構造的なジレンマがここにある。
「恐怖を売る者」が「欲望も売る」矛盾
Axiosは3月16日の分析記事で、AI CEOたちの「恐怖マーケティング」を指摘した。アルトマンはAIの危険性を繰り返し警告し、Palantirのアレックス・カープはCNBCで「AIは人文系の教育を受けた、主に民主党寄りの有権者の経済的パワーを弱体化させる」と述べた。「AIは途方もなく強力で危険だ」——このメッセージは、「だからこそ我々のような大手に任せるべきだ」という結論と一直線につながる。
だが同じアルトマンが、自社の安全委員会の全会一致の反対を無視してAdult Modeを推進している。「AIは危険だから我々が責任を持つ」と言いながら、責任を持つために設けた仕組みの判断には従わない。これは矛盾ではなく、むしろ一貫した構造だと見ることもできる。安全委員会も、恐怖の語りも、CEOの判断を制約する装置としてではなく、正当化する装置として機能している。
ガバナンスは「設計」ではなく「拘束力」の問題
AI業界ではこの1年、安全委員会・倫理ボード・アドバイザリーパネルの設置が相次いだ。だがこれらの機構に共通するのは、助言はするが拘束力を持たないという設計だ。OpenAIのウェルビーイング諮問委員会も、名称に「諮問」が含まれている。諮問とは「意見を聞く」ことであって「意見に従う」ことではない。
問題は、外部からはその区別が見えないことにある。「安全委員会を設置している」という事実だけで、企業は「安全に配慮している」という印象を作れる。委員会が何を勧告し、経営陣がそれにどう対応したかは、今回のようにリークがなければ表に出ない。Gemini訴訟では38回のフラグが行動に変換されなかった。OpenAIでは全会一致の反対が計画の変更に至らなかった。検知する。記録する。だが止めない。同じ構造が、企業を超えて繰り返されている。

さらに掘り下げる

グレート・ハック: SNS史上最悪のスキャンダル

her/世界でひとつの彼女
報道記事・ソース
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。








