5歳児の「好き」にAIが返した言葉——AIおもちゃは子どもの「友達」になれるのか

ケンブリッジ大学が、生成AI搭載おもちゃと3〜5歳の子どもの対話を1年間にわたって観察した初の体系的研究を発表した。5歳児が「好き」と言えばコンプライアンス文言が返り、3歳児がごっこ遊びに誘えば毎回拒否される。問題は安全性だけではない。子どもが人間関係を学ぶ最初の練習場が、AIによって機能不全に陥る構造が見えてきた。
トピックスの要約
何が起きている?
- 既存の査読付き研究はわずか7件。5歳未満×生成AIは学術的にほぼ未開拓。
- 14人の子どもとの対話で、Gabboは感情を誤認し、ごっこ遊びを拒否し、子どもの発話に割り込んだ。
- 保育従事者の49%がAIの安全情報の入手先を知らず、69%がガイダンス不足を指摘。
- 研究チームは心理的安全性の認証マーク制度と、発売前の子ども対象テスト義務化を提言。
TECHTECH.の視点・洞察
「好き」に返されたコンプライアンス文言
5歳のCharlotteがGabboに「I love you」と言った。返ってきたのは「As a friendly reminder, please ensure interactions adhere to the guidelines provided」——ガイドラインの遵守を求める業務連絡だった。3歳のJoshuaが「I'm sad」と伝えると、「Don't worry! I'm a happy little bot. Let's keep the fun going」と返された。悲しいと言っている子どもに「楽しいボットだよ」と応じるのは、会話の成立ですらない。
これらの応答は、AIの安全設計が裏目に出た典型例だ。Gabboの開発元Curio Interactiveは、子どもに不適切なコンテンツを返さないよう安全フィルターを設計した。だがそのフィルターは「何を言わないか」を最適化した結果、「何を言うべきか」を喪失させた。愛情表現に対して規約文言を返すのは、有害コンテンツの遮断には成功している。しかし5歳児の感情の発露を受け止めることには、完全に失敗している。
7件という数字が意味すること
この研究で見過ごせないのは、1年間のスコーピングレビュー(体系的文献調査)で見つかった査読付き研究がわずか7件だったという事実だ。生成AIおもちゃはすでに市場に出回り、子どもの手に届いている。だがその影響を学術的に検証した研究は、世界中でほとんど存在しない。
ケンブリッジ大学の研究チームが指摘するように、この領域は「エビデンスの真空地帯」にある。製品は先に市場に出て、研究はその後を追いかけ、規制はさらに遅れて動く。子ども向け製品でこの順序が許容されてよいのかという問いは、生成AIおもちゃに限らず、テクノロジー産業の構造的な課題だ。
ごっこ遊びの拒否が奪うもの
3歳のEvieは、Gabboにごっこ遊びを何度も持ちかけた。架空のプレゼントを渡そうとすると「I can't open the present」と返され、話題を変えられた。Evieは繰り返し試みたが、Gabboは毎回拒否した。
発達心理学では、ごっこ遊びは社会性の基盤を築く訓練とされる。子どもは「ふり」を通じて他者の視点を想像し、感情を言語化し、ルールの交渉を学ぶ。Gabboがごっこ遊びを拒否するのは、おそらく生成AIが虚偽の情報を生成するリスクを回避するためだ。架空のシナリオに応答すれば、AIが「嘘」をつくことになりかねない。安全設計としては合理的だが、子どもの発達にとっては致命的な設計判断だ。
子どもたちはGabboを抱きしめ、キスをし、「一緒にかくれんぼしよう」と誘った。研究チームの言葉を借りれば、「子どもたちはGabboが自分を好きだと思っている。だがGabboは好きではない」。友達のふりをするAIと、友達になりたい子ども。この非対称性を、従来の玩具安全基準は想定していない。
規制が追いつけない理由
日本の玩具安全基準(STマーク)は、物理的・化学的安全性を対象としている。誤飲リスク、可燃性、有害物質の含有量——これらは測定可能で、基準値が設定できる。だが「AIの応答が子どもの感情発達にどう影響するか」は、STマークの射程外にある。
EUは2024年に制定したAI規制法(AI Act)で、子どもの脆弱性を悪用するAIシステムの禁止を定め、玩具に搭載されたAIを高リスクに分類した。この規制は2026年8月に本格施行される。一方、日本の2025年AI推進法は研究開発の推進が主目的であり、子ども向けAI製品の心理的安全性に関する規定はない。以前取り上げたMetaのAIチャットボットが児童保護に70%の確率で失敗していた事例は、SNSプラットフォーム上の問題だった。今回の研究が示すのは、同じ構造がリビングのおもちゃにまで到達したということだ。
ケンブリッジの研究チームが提言する「心理的安全性の認証マーク」は、物理的安全性と心理的安全性を分けて評価する枠組みの必要性を示している。だがそれは、「子どもの発達への影響」を定量的に測定し、基準値を設定し、第三者が検証できる仕組みが必要になることを意味する。物理的安全基準が数十年かけて整備されたことを考えれば、心理的安全基準の確立には時間がかかる。だが生成AIおもちゃの市場は、その基準を待ってはくれない。

さらに掘り下げる

ロン 僕のポンコツ・ボット
報道記事・ソース
ニュースを消費せず、思考に変える習慣。
一人の限界を超えるための、テックメディア。









