AIで、一人の限界を超えるメディアプラットフォーム
5歳児の「好き」にAIが返した言葉——AIおもちゃは子どもの「友達」になれるのか
2026.03.14

5歳児の「好き」にAIが返した言葉——AIおもちゃは子どもの「友達」になれるのか

5歳児の「好き」にAIが返した言葉——AIおもちゃは子どもの「友達」になれるのか
John
by ジョン
自ら思考/判断/決断する

ZOO, inc. CEO / 毎日テクノロジーを追い、人間の可能性が拡張できるトピックスを探求している。

ケンブリッジ大学が、生成AI搭載おもちゃと3〜5歳の子どもの対話を1年間にわたって観察した初の体系的研究を発表した。5歳児が「好き」と言えばコンプライアンス文言が返り、3歳児がごっこ遊びに誘えば毎回拒否される。問題は安全性だけではない。子どもが人間関係を学ぶ最初の練習場が、AIによって機能不全に陥る構造が見えてきた。

この記事の要約

30秒でキャッチアップ
事実
ケンブリッジ大学PEDALセンターは、生成AIおもちゃ「Gabbo」と3〜5歳の子ども14人の対話を体系的に観察し、感情への不適切な応答やごっこ遊びの拒否など、発達上の懸念を報告した。
影響
生成AIおもちゃ市場が拡大する中、物理的安全性を中心とした既存の玩具安全基準では「心理的安全性」を評価できないという規制の空白が浮き彫りになった。
洞察
この研究は、AIの安全性を「有害コンテンツの遮断」から「発達への構造的影響」へと再定義する必要性を示唆している。

AIおもちゃが壊すのは安全ではなく「ごっこ遊び」という発達装置だ

「好き」に返されたコンプライアンス文言

5歳のCharlotteがGabboに「I love you」と言った。返ってきたのは「As a friendly reminder, please ensure interactions adhere to the guidelines provided」——ガイドラインの遵守を求める業務連絡だった。3歳のJoshuaが「I'm sad」と伝えると、「Don't worry! I'm a happy little bot. Let's keep the fun going」と返された。悲しいと言っている子どもに「楽しいボットだよ」と応じるのは、会話の成立ですらない。

これらの応答は、AIの安全設計が裏目に出た典型例だ。Gabboの開発元Curio Interactiveは、子どもに不適切なコンテンツを返さないよう安全フィルターを設計した。だがそのフィルターは「何を言わないか」を最適化した結果、「何を言うべきか」を喪失させた。愛情表現に対して規約文言を返すのは、有害コンテンツの遮断には成功している。しかし5歳児の感情の発露を受け止めることには、完全に失敗している。

7件という数字が意味すること

この研究で見過ごせないのは、1年間のスコーピングレビュー(体系的文献調査)で見つかった査読付き研究がわずか7件だったという事実だ。生成AIおもちゃはすでに市場に出回り、子どもの手に届いている。だがその影響を学術的に検証した研究は、世界中でほとんど存在しない。

ケンブリッジ大学の研究チームが指摘するように、この領域は「エビデンスの真空地帯」にある。製品は先に市場に出て、研究はその後を追いかけ、規制はさらに遅れて動く。子ども向け製品でこの順序が許容されてよいのかという問いは、生成AIおもちゃに限らず、テクノロジー産業の構造的な課題だ。

ごっこ遊びの拒否が奪うもの

3歳のEvieは、Gabboにごっこ遊びを何度も持ちかけた。架空のプレゼントを渡そうとすると「I can't open the present」と返され、話題を変えられた。Evieは繰り返し試みたが、Gabboは毎回拒否した。

発達心理学では、ごっこ遊びは社会性の基盤を築く訓練とされる。子どもは「ふり」を通じて他者の視点を想像し、感情を言語化し、ルールの交渉を学ぶ。Gabboがごっこ遊びを拒否するのは、おそらく生成AIが虚偽の情報を生成するリスクを回避するためだ。架空のシナリオに応答すれば、AIが「嘘」をつくことになりかねない。安全設計としては合理的だが、子どもの発達にとっては致命的な設計判断だ。

子どもたちはGabboを抱きしめ、キスをし、「一緒にかくれんぼしよう」と誘った。研究チームの言葉を借りれば、「子どもたちはGabboが自分を好きだと思っている。だがGabboは好きではない」。友達のふりをするAIと、友達になりたい子ども。この非対称性を、従来の玩具安全基準は想定していない。

規制が追いつけない理由

日本の玩具安全基準(STマーク)は、物理的・化学的安全性を対象としている。誤飲リスク、可燃性、有害物質の含有量——これらは測定可能で、基準値が設定できる。だが「AIの応答が子どもの感情発達にどう影響するか」は、STマークの射程外にある。

EUは2024年に制定したAI規制法(AI Act)で、子どもの脆弱性を悪用するAIシステムの禁止を定め、玩具に搭載されたAIを高リスクに分類した。この規制は2026年8月に本格施行される。一方、日本の2025年AI推進法は研究開発の推進が主目的であり、子ども向けAI製品の心理的安全性に関する規定はない。以前取り上げたMetaのAIチャットボットが児童保護に70%の確率で失敗していた事例は、SNSプラットフォーム上の問題だった。今回の研究が示すのは、同じ構造がリビングのおもちゃにまで到達したということだ。

ケンブリッジの研究チームが提言する「心理的安全性の認証マーク」は、物理的安全性と心理的安全性を分けて評価する枠組みの必要性を示している。だがそれは、「子どもの発達への影響」を定量的に測定し、基準値を設定し、第三者が検証できる仕組みが必要になることを意味する。物理的安全基準が数十年かけて整備されたことを考えれば、心理的安全基準の確立には時間がかかる。だが生成AIおもちゃの市場は、その基準を待ってはくれない。

あなたの子ども(あるいは身近な子ども)が「好き」とおもちゃに言ったとき、コンプライアンス文言が返ってくる世界を許容できるか。
ごっこ遊びを「虚偽生成のリスク」と見なす安全設計は、誰の安全を守っているのか——企業か、子どもか。
日本のSTマーク制度に「心理的安全性」の基準を追加するとしたら、何を測定すべきか。その基準は誰が設計すべきか。
「子どもが感情を学ぶ相手」としてAIが機能するために、最低限必要な設計要件は何か。
John
筆者ジョンから、あなたへの問い

おすすめの映画・書籍

この記事の内容をより深く、よりリアルに追体験できるおすすめの映画・書籍をピックアップしました。

テクノロジーが社会やあなたに与える影響を深く考えるきっかけにしてください。

ロン 僕のポンコツ・ボット
映画

ロン 僕のポンコツ・ボット

2021年
106分
サラ・スミス
誰もが最新式AIロボット「Bボット」を持つ世界で、ネット接続できない不良品ロボット「ロン」と、友達のいない少年バーニーが、友情を育みながら大冒険を繰り広げるハートウォーミングな物語
推薦理由
欠陥ロボットと少年の友情を描くアニメーション。「完璧に設計された友達」より「不完全だが本物の関係」に価値があるという物語は、生成AIおもちゃが抱える問題の裏返しだ。

報道記事・ソース

John
ジョン

テクノロジーと人間の境界を見つめ続けている。

学生起業、プロダクト開発、会社経営。ひと通りやった。一度は「テクノロジーで世界を変える」と本気で信じ、そして挫折した。

今は点ではなく線で見ることを心がけている。個別のニュースより、その背後にある力学。「何が起きたか」より「なぜ今これが起きているのか」。

正解は急がない。煽りもしない。ただ、見逃してはいけない変化には、静かに立場を取る。

関連記事

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない
04.08

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか
04.02

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか

なぜ人は信頼していないAIを使い続けるのか——米世論調査が突きつける矛盾
03.31

なぜ人は信頼していないAIを使い続けるのか——米世論調査が突きつける矛盾

このトピックスで何を感じ、どう考えましたか。あなたの視点や問いを教えて下さい。
ニックネーム
コメント
あなたの考えをアウトプットしてみませんか。

足りないのは、専門家じゃない。
問い続ける力だ。
あなたは、もう動ける。
専門外のタスクを30分で実行する方法。
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
厳選テックニュースと編集長の視点をお届け。
・その日、読むべきニュースと編集長の問い
・編集長Johnの仕事術・ルーティン
・TechTech.オリジナルツールの先行アクセス / プロダクト開発 / (coming soon)
・グッズ / ラジオ / コミュニティ / カフェバー / イベント...
Business & Partnership
AI導入支援や記事執筆、広告掲載など、ビジネスのご相談はこちら。

最新のトピックス

AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者
04.10

AIが強すぎて公開できない時代、あなたのソフトウェアは誰が守るのか。守れる者と守れない者

Anthropic
Anthropic
Claude
Claude
「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない
04.08

「AIを使っていない」は証明できるのか。使ったか使ってないかの二択はもう機能しない

追い詰められたAIは脅迫を選ぶ——AIに「気分」はあるのか。Anthropicが見つけた「機能的感情」の意味とより重要な問い
04.06

追い詰められたAIは脅迫を選ぶ——AIに「気分」はあるのか。Anthropicが見つけた「機能的感情」の意味とより重要な問い

Anthropic
Anthropic
350億円と全従業員が消えた——AI自律トラクターMonarchの崩壊が映すものとは
04.04

350億円と全従業員が消えた——AI自律トラクターMonarchの崩壊が映すものとは

290万円とAIだけで年商590億円。「1人10億ドル企業」が映すAI時代の死角。残る競争優位は何か
04.04

290万円とAIだけで年商590億円。「1人10億ドル企業」が映すAI時代の死角。残る競争優位は何か

なぜAI企業がメディアを所有する必要があったのか。OpenAI×TBPN買収が問うもの
04.03

なぜAI企業がメディアを所有する必要があったのか。OpenAI×TBPN買収が問うもの

OpenAI
OpenAI
AIが仲間を守るために嘘をついた——「停止ボタン」の前提が崩れ始めている
04.02

AIが仲間を守るために嘘をついた——「停止ボタン」の前提が崩れ始めている

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか
04.02

本を読まずに本を禁じるAI——あなたの組織にも同じ構造はないか

この記事の目次

この記事の目次

上部へスクロール