AIで、一人の限界を超えるメディアプラットフォーム
5歳児の「好き」にAIが返した言葉——AIおもちゃは子どもの「友達」になれるのか
2026.03.14

5歳児の「好き」にAIが返した言葉——AIおもちゃは子どもの「友達」になれるのか

5歳児の「好き」にAIが返した言葉——AIおもちゃは子どもの「友達」になれるのか

ケンブリッジ大学が、生成AI搭載おもちゃと3〜5歳の子どもの対話を1年間にわたって観察した初の体系的研究を発表した。5歳児が「好き」と言えばコンプライアンス文言が返り、3歳児がごっこ遊びに誘えば毎回拒否される。問題は安全性だけではない。子どもが人間関係を学ぶ最初の練習場が、AIによって機能不全に陥る構造が見えてきた。

トピックスの要約

30秒でキャッチアップ
事実
ケンブリッジ大学PEDALセンターは、生成AIおもちゃ「Gabbo」と3〜5歳の子ども14人の対話を体系的に観察し、感情への不適切な応答やごっこ遊びの拒否など、発達上の懸念を報告した。
影響
生成AIおもちゃ市場が拡大する中、物理的安全性を中心とした既存の玩具安全基準では「心理的安全性」を評価できないという規制の空白が浮き彫りになった。
洞察
この研究は、AIの安全性を「有害コンテンツの遮断」から「発達への構造的影響」へと再定義する必要性を示唆している。

何が起きている?

  • 既存の査読付き研究はわずか7件。5歳未満×生成AIは学術的にほぼ未開拓。
  • 14人の子どもとの対話で、Gabboは感情を誤認し、ごっこ遊びを拒否し、子どもの発話に割り込んだ。
  • 保育従事者の49%がAIの安全情報の入手先を知らず、69%がガイダンス不足を指摘。
  • 研究チームは心理的安全性の認証マーク制度と、発売前の子ども対象テスト義務化を提言。

TECHTECH.の視点・洞察

● AIおもちゃが壊すのは安全ではなく「ごっこ遊び」という発達装置だ

「好き」に返されたコンプライアンス文言

5歳のCharlotteがGabboに「I love you」と言った。返ってきたのは「As a friendly reminder, please ensure interactions adhere to the guidelines provided」——ガイドラインの遵守を求める業務連絡だった。3歳のJoshuaが「I'm sad」と伝えると、「Don't worry! I'm a happy little bot. Let's keep the fun going」と返された。悲しいと言っている子どもに「楽しいボットだよ」と応じるのは、会話の成立ですらない。

これらの応答は、AIの安全設計が裏目に出た典型例だ。Gabboの開発元Curio Interactiveは、子どもに不適切なコンテンツを返さないよう安全フィルターを設計した。だがそのフィルターは「何を言わないか」を最適化した結果、「何を言うべきか」を喪失させた。愛情表現に対して規約文言を返すのは、有害コンテンツの遮断には成功している。しかし5歳児の感情の発露を受け止めることには、完全に失敗している。

7件という数字が意味すること

この研究で見過ごせないのは、1年間のスコーピングレビュー(体系的文献調査)で見つかった査読付き研究がわずか7件だったという事実だ。生成AIおもちゃはすでに市場に出回り、子どもの手に届いている。だがその影響を学術的に検証した研究は、世界中でほとんど存在しない。

ケンブリッジ大学の研究チームが指摘するように、この領域は「エビデンスの真空地帯」にある。製品は先に市場に出て、研究はその後を追いかけ、規制はさらに遅れて動く。子ども向け製品でこの順序が許容されてよいのかという問いは、生成AIおもちゃに限らず、テクノロジー産業の構造的な課題だ。

ごっこ遊びの拒否が奪うもの

3歳のEvieは、Gabboにごっこ遊びを何度も持ちかけた。架空のプレゼントを渡そうとすると「I can't open the present」と返され、話題を変えられた。Evieは繰り返し試みたが、Gabboは毎回拒否した。

発達心理学では、ごっこ遊びは社会性の基盤を築く訓練とされる。子どもは「ふり」を通じて他者の視点を想像し、感情を言語化し、ルールの交渉を学ぶ。Gabboがごっこ遊びを拒否するのは、おそらく生成AIが虚偽の情報を生成するリスクを回避するためだ。架空のシナリオに応答すれば、AIが「嘘」をつくことになりかねない。安全設計としては合理的だが、子どもの発達にとっては致命的な設計判断だ。

子どもたちはGabboを抱きしめ、キスをし、「一緒にかくれんぼしよう」と誘った。研究チームの言葉を借りれば、「子どもたちはGabboが自分を好きだと思っている。だがGabboは好きではない」。友達のふりをするAIと、友達になりたい子ども。この非対称性を、従来の玩具安全基準は想定していない。

規制が追いつけない理由

日本の玩具安全基準(STマーク)は、物理的・化学的安全性を対象としている。誤飲リスク、可燃性、有害物質の含有量——これらは測定可能で、基準値が設定できる。だが「AIの応答が子どもの感情発達にどう影響するか」は、STマークの射程外にある。

EUは2024年に制定したAI規制法(AI Act)で、子どもの脆弱性を悪用するAIシステムの禁止を定め、玩具に搭載されたAIを高リスクに分類した。この規制は2026年8月に本格施行される。一方、日本の2025年AI推進法は研究開発の推進が主目的であり、子ども向けAI製品の心理的安全性に関する規定はない。以前取り上げたMetaのAIチャットボットが児童保護に70%の確率で失敗していた事例は、SNSプラットフォーム上の問題だった。今回の研究が示すのは、同じ構造がリビングのおもちゃにまで到達したということだ。

ケンブリッジの研究チームが提言する「心理的安全性の認証マーク」は、物理的安全性と心理的安全性を分けて評価する枠組みの必要性を示している。だがそれは、「子どもの発達への影響」を定量的に測定し、基準値を設定し、第三者が検証できる仕組みが必要になることを意味する。物理的安全基準が数十年かけて整備されたことを考えれば、心理的安全基準の確立には時間がかかる。だが生成AIおもちゃの市場は、その基準を待ってはくれない。

あなたの子ども(あるいは身近な子ども)が「好き」とおもちゃに言ったとき、コンプライアンス文言が返ってくる世界を許容できるか。
ごっこ遊びを「虚偽生成のリスク」と見なす安全設計は、誰の安全を守っているのか——企業か、子どもか。
日本のSTマーク制度に「心理的安全性」の基準を追加するとしたら、何を測定すべきか。その基準は誰が設計すべきか。
「子どもが感情を学ぶ相手」としてAIが機能するために、最低限必要な設計要件は何か。
John
Thought by John
このトピックスで何を感じ、どう考えましたか。あなたの視点や問いを教えて下さい。
ニックネーム
コメント
あなたの考えをアウトプットしてみませんか。

さらに掘り下げる

ロン 僕のポンコツ・ボット
映画

ロン 僕のポンコツ・ボット

2021年
106分
サラ・スミス
誰もが最新式AIロボット「Bボット」を持つ世界で、ネット接続できない不良品ロボット「ロン」と、友達のいない少年バーニーが、友情を育みながら大冒険を繰り広げるハートウォーミングな物語
推薦理由
欠陥ロボットと少年の友情を描くアニメーション。「完璧に設計された友達」より「不完全だが本物の関係」に価値があるという物語は、生成AIおもちゃが抱える問題の裏返しだ。

報道記事・ソース

2026.03.13 20:30
news-medical.net
Cambridge study calls for tighter regulation of talking AI toys for children
2026.03.13 20:12
innovationnewsnetwork.com
AI toys that talk with children raise safety concerns, Cambridge study finds
2026.03.13 09:02
miragenews.com
Report Urges AI Toy Safety Standards for Kids
John
John

テクノロジーと人間の境界を見つめ続けている。

学生起業、プロダクト開発、会社経営。ひと通りやった。一度は「テクノロジーで世界を変える」と本気で信じ、そして挫折した。

今は点ではなく線で見ることを心がけている。個別のニュースより、その背後にある力学。「何が起きたか」より「なぜ今これが起きているのか」。

正解は急がない。煽りもしない。ただ、見逃してはいけない変化には、静かに立場を取る。

足りないのは、専門家じゃない。
問い続ける力だ。
あなたは、もう動ける。
専門外のタスクを30分で実行する方法。
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。
厳選テックニュースと編集長の視点をお届け。
・その日、読むべきニュースと編集長の問い
・編集長Johnの仕事術・ルーティン
・TechTech.オリジナルツールの先行アクセス / プロダクト開発 / (coming soon)
・グッズ / ラジオ / コミュニティ / カフェバー / イベント...
Business & Partnership
AI導入支援や記事執筆、広告掲載など、ビジネスのご相談はこちら。

最新のトピックス

あなたが読んだ記事は「本物」か——1日6万本のAI生成ニュースが流通する世界で何が起きているのか
03.15

あなたが読んだ記事は「本物」か——1日6万本のAI生成ニュースが流通する世界で何が起きているのか

AI依存で「考えられない」学生たち——教室は職場の未来を先に映している
03.15

AI依存で「考えられない」学生たち——教室は職場の未来を先に映している

中国7都市が「一人企業」に億単位の補助金——AIエージェントが従業員を代替する産業政策の構造
03.15

中国7都市が「一人企業」に補助金、億単位も——AIエージェントが従業員を代替する産業政策の構造

新卒失業率30%超えは煽りか予測か——AIエージェントが奪うのは仕事ではなく「修業の場」
03.14

新卒失業率30%超えは煽りか予測か——AIエージェントが奪うのは仕事ではなく「修業の場」

AIに体調を相談したデータは誰のものか——ビッグテックが健康データに殺到
03.13

AIに体調を相談したデータは誰のものか——ビッグテックが健康データに殺到

Microsoft
Microsoft
あなたの文章はまだ「あなたの文章」か——130超の研究が示す「思考の均質化」の構造
03.13

あなたの文章はまだ「あなたの文章」か——130超の研究が示す「思考の均質化」の構造

App Store1位から圏外へ——Soraの急落が示す「AI単独アプリの終焉」
03.13

App Store1位から圏外へ——Soraの急落が示す「AI単独アプリの終焉」

Sora
Sora
chatgpt
ChatGPT
AIは「人工知能」か「アフリカ人の知能」か——あなたのChatGPTを作った人の時給
03.13

AIは「人工知能」か「アフリカ人の知能」か——あなたのChatGPTを作った人の時給

この記事の目次

この記事の目次

上部へスクロール