AIで、一人の限界を超えるメディアプラットフォーム
本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか
2026.04.02

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか
John
by ジョン
自ら思考/判断/決断する

ZOO, inc. CEO / 毎日テクノロジーを追い、人間の可能性が拡張できるトピックスを探求している。

社内のコンプライアンスチェックをAIに任せたことがあるだろうか。判定理由は読まず、「問題なし」のラベルだけ確認して次へ進む。

いま米国の学校図書館で、この構造が蔵書に適用されている。AIが本をスキャンし、「不適切」と判定された作品が棚から消えていく。判定の根拠は、約300語の単語リスト。

この記事の要約

30秒でキャッチアップ
事実
米国の保守系団体がAIスキャナー「BLOCKADE」で学校図書館の蔵書を自動審査している。テキサス州の学区ではAI審査ツール導入後、1,400冊以上が棚から撤去された。
影響
連邦法案H.R. 7661が下院委員会を通過し、AI審査が全米の学校に波及しうる。
洞察
「不適切」の判断をアルゴリズムに委ねる構造は、教育に限らず拡大している。

文脈を読まない判断は、誰の判断でもない

300語で「不適切」を定義するということ

BLOCKADEのソースコードはGitHubで公開されている。中を見ると、構造は単純だ。

約300の単語に重みづけスコアが振られている。AIはPDFやePUBファイルをスキャンし、これらの単語の出現頻度とスコアを集計して「リスクプロファイル」を生成する。出力はPDF形式のレポート。読んだ人間が判断を下す——という建前になっている。

注目すべきは、AIへの指示文に「追加のテキストや説明を含めないこと」と書かれていること。判定の理由をAIに返させない設計。

これは「判断」の外注ではない。「仕分け」の自動化にすぎない。

プロダクトの要件定義を書いてきた身からすると、この設計思想には見覚えがある。判断基準を明文化し、ルールに落とし込み、人間の裁量を減らす。工程管理としては正しい。ただ、それが「この本は子どもに読ませていいか」という問いに適用されたとき、何かが決定的にずれる。

「教育上不適切」の定義として設定されている文言がある。「保守的価値観に反するコンテンツ」。これが300語の単語リストと組み合わさったとき、フィルターは設計者の世界観を映す鏡になる。しかもその鏡は、自分が何を映しているかを説明しない。

『アラバマ物語』が引っかかる理由

テキサス州のニューブラウンフェルズ学区は、AI書籍審査ツール「BookmarkED」に約9,000ドル(約135万円)を支払い、蔵書のスクリーニングを導入した。結果、小学校から高校まで1,400冊以上の本が棚から消えた。新規の書籍購入も無期限で凍結されている。

ある小学校の司書が内部メールに書いた言葉が残っている。「BookmarkEDは、実行するたびに前より多くの本にフラグを立てているように感じる」「AIはコンテンツを全体として捉えるのではなく、フラグを立てているだけ」。

テキサス州リアンダー学区(Leander ISD)では、州法SB 12——学校でのDEI(多様性・公平性・包括性)コンテンツを制限する法律——に基づき、AIが授業教材を審査した。結果、ヴィクトル・ユゴーの『レ・ミゼラブル』、ハーパー・リーの『アラバマ物語』、サンドラ・シスネロスの『マンゴー通り、ときどきさよなら』が「要注意」として引っかかった。差別を描いた文学と、差別を推奨する文学。単語レベルのスキャンでは、その区別がつかない。

PEN America(米国ペンクラブ)の調査によれば、2024-25年度に全米で6,700件以上の禁書措置が記録されている。2021年以降の累計は約23,000件。これだけの数を人間が一冊ずつ読んで判断していたら、到底追いつかない。だからAIが導入された。効率化の動機には合理性がある。

この数をどう読むか。大量の蔵書を一冊ずつ人間が読んで判断するのは、現実的ではないだろう。何らかの効率化は避けられない。問題はAIを使うこと自体にあるのか、AIの出力をどう扱うかにあるのか。

BLOCKADEの設計に戻る。「説明を返すな」。BookmarkEDのフラグが撤去判断に直結する運用。共通しているのは、判断の間に「なぜ」を挟む余地がどこにもないこと。

この構造は書棚の外にもある

書籍検閲の話を、書籍検閲の話としてだけで閉じたくはない。

採用プロセスでAIが履歴書をスクリーニングし、フラグが立った候補者が面接に進めない。コンテンツモデレーションAIが文脈を読まずに投稿を削除する。コンプライアンスチェックAIが取引先のリスクを数値で返す。「人間が最終判断を下す」という建前の下で、AIのフラグが事実上の判定として機能している構造——これはBLOCKADEと同じものではないか。

ブレナンセンター(Brennan Center for Justice)の分析が、この構造を「説明責任の回避」と呼んでいる。AIが判定を下し、人間がそれを承認する。判断の責任を問われれば「AIが判定した」と言い、AIの設計責任を問われれば「ツールの使い方の問題」と返す。責任の所在が蒸発する。

何度も見てきた光景と重なる。会議で方針が決まる。だが「この判断を、私の責任で進める」と明言する人間がいない。なんとなく場の空気で合意が形成され、なんとなく承認が下り、実行に移される。誰が決めたかが曖昧なまま、意思決定だけが積み上がっていく。AIが加わると、「AIの出力に基づいています」の一言で、この曖昧さに正当性まで付与される。BLOCKADEの300語リストは、その構造が可視化された一例にすぎない。

ただ、AIのせいにしている人間は、この先立場を失うのではないか。AIは判定を返せる。責任は取れない。人間同士で成り立つ社会において、人間に対して「私がこの判断に責任を持つ」と言い切ること——結局、人間にしかできないのはそこだと思っている。自信を持って決める。明瞭に説明する。大胆に引き受ける。AI時代にこそ、価値が上がるマインドではないか。

日本の「包括指定」という鏡

日本にも、文脈を排除した自動判定の構造はすでにある。

46の都道府県が制定している青少年保護育成条例の「包括指定」制度。性的描写が全体の5分の1以上を占める、あるいは20ページ以上含まれる——といった数値基準を満たすと、個別の審議を経ずに自動的に「有害図書」に指定される仕組みになっている。

ページ数で判定する。単語数で判定する。構造は同じ。文脈を見ない。

この制度はAI以前から存在しており、BLOCKADEより歴史が長い。AIがこの構造に加わったとき何が変わるか。まず処理速度とスケール。一冊ずつ確認していた作業が、数千冊を一括で処理できるようになる。

ただ、ここは専門外の直感だが、本質的に変わるのは速度だけではないように思う。人間が一冊ずつ確認するとき——たとえ形式的な基準であっても——「これは本当にそうか」と立ち止まる瞬間がゼロではない。AIが一括処理したとき、その立ち止まりが消える。

判断とは、文脈の中で立ち止まることではないか。BLOCKADEは、立ち止まらない判断を大量生産する装置になっている。

AIに「判定」を委ねている業務をひとつ思い浮かべたとき、その判定の根拠を自分の言葉で説明できるか
「不適切」の線引きを設計した人間の価値観は、どこまで開示されるべきか
大量の判断を効率化するとき、「文脈を読むコスト」をどこまで許容できるか
AIの判定を覆す権限は、あなたの組織で誰が持っているか
John
筆者ジョンから、あなたへの問い

おすすめの映画・書籍

この記事の内容をより深く、よりリアルに追体験できるおすすめの映画・書籍をピックアップしました。

テクノロジーが社会やあなたに与える影響を深く考えるきっかけにしてください。

図書館戦争
書籍

図書館戦争

2011年
KADOKAWA
有川 浩
メディア良化法により不当な検閲が横行する架空の日本を舞台に、本と表現の自由を守る組織「図書隊」の熱い戦いと、主人公・笠原郁と堂上篤教官の不器用な恋を描いたライトノベル
推薦理由
表現規制法が施行された架空の日本で、図書館が武装して本を守る。荒唐無稽に見える設定の下敷きは、実在する「図書館の自由に関する宣言」。フィクションが現実の構造を照らす好例。
華氏451度
書籍

華氏451度

2014年
早川書房
レイ・ブラッドベリ
本が禁止され、発見次第焼却される近未来を描いたディストピアSF
推薦理由
本を燃やすことが消防士の仕事になった世界。ブラッドベリが1953年に描いた焚書社会は、検閲の動機を「悪意」ではなく「面倒くささ」に置いた。70年後のAI検閲と、驚くほど構造が重なる。
あなたを支配し、社会を破壊する、AI・ビッグデータの罠
映画

あなたを支配し、社会を破壊する、AI・ビッグデータの罠

2018年
インターシフト
キャシー・オニール
アルゴリズムが人々の生活を不当に評価し、格差を固定化させる危険性を警告したノンフィクション作品
推薦理由
数学者が「公平に見えるアルゴリズム」の裏側を暴く。採用、保険、教育——判断をスコアに変換したとき何が切り捨てられるか。BLOCKADEの300語リストを読んだ後に開くと、射程の広さに気づく。
John
ジョン

テクノロジーと人間の境界を見つめ続けている。

学生起業、プロダクト開発、会社経営。ひと通りやった。一度は「テクノロジーで世界を変える」と本気で信じ、そして挫折した。

今は点ではなく線で見ることを心がけている。個別のニュースより、その背後にある力学。「何が起きたか」より「なぜ今これが起きているのか」。

正解は急がない。煽りもしない。ただ、見逃してはいけない変化には、静かに立場を取る。

関連記事

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない
04.08

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

なぜ人は信頼していないAIを使い続けるのか——米世論調査が突きつける矛盾
03.31

なぜ人は信頼していないAIを使い続けるのか——米世論調査が突きつける矛盾

アメリカの街に立つAI「かかし」——月200億回のスキャンは誰の安全のためか
03.30

アメリカの街に立つAI「かかし」——月200億回のスキャンは誰の安全のためか

このトピックスで何を感じ、どう考えましたか。あなたの視点や問いを教えて下さい。
ニックネーム
コメント
あなたの考えをアウトプットしてみませんか。

足りないのは、専門家じゃない。
問い続ける力だ。
あなたは、もう動ける。
専門外のタスクを30分で実行する方法。
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
厳選テックニュースと編集長の視点をお届け。
・その日、読むべきニュースと編集長の問い
・編集長Johnの仕事術・ルーティン
・TechTech.オリジナルツールの先行アクセス / プロダクト開発 / (coming soon)
・グッズ / ラジオ / コミュニティ / カフェバー / イベント...
Business & Partnership
AI導入支援や記事執筆、広告掲載など、ビジネスのご相談はこちら。

最新のトピックス

AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者
04.10

AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者

Anthropic
Anthropic
Claude
Claude
「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない
04.08

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

追い詰められたAIは脅迫を選ぶ——AIに「気分」はあるのか。Anthropicが見つけた「機能的感情」の意味とより重要な問い
04.06

追い詰められたAIは脅迫を選ぶ——AIに「気分」はあるのか。Anthropicが見つけた「機能的感情」の意味とより重要な問い

Anthropic
Anthropic
350億円と全従業員が消えた——AI自律トラクターMonarchの崩壊が映すものとは
04.04

350億円と全従業員が消えた——AI自律トラクターMonarchの崩壊が映すものとは

290万円とAIだけで年商590億円。「1人10億ドル企業」が映すAI時代の死角。残る競争優位は何か
04.04

290万円とAIだけで年商590億円。「1人10億ドル企業」が映すAI時代の死角。残る競争優位は何か

なぜAI企業がメディアを所有する必要があったのか。OpenAI×TBPN買収が問うもの
04.03

なぜAI企業がメディアを所有する必要があったのか。OpenAI×TBPN買収が問うもの

OpenAI
OpenAI
AIが仲間を守るために嘘をついた——「停止ボタン」の前提が崩れ始めている
04.02

AIが仲間を守るために嘘をついた——「停止ボタン」の前提が崩れ始めている

あなたの脳を若い身体に移す技術は誰のためのものか——「脳のないクローン」に1,000万ドルが集まる
04.01

あなたの脳を若い身体に移す技術は誰のためのものか——「脳のないクローン」とは

この記事の目次

この記事の目次

上部へスクロール