扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
中国发布新规规范AI拟人化互动服务,重点保护未成年人,要求AI玩偶行业强化防沉迷、数据隐私和内容管控,明确其工具属性而非情感替代品,推动行业从野蛮生长转向有序发展。 --- ## 1. AI拟人化服务的风险与监管必要性 - **情感依赖隐患**:AI玩偶通过拟人化交互(如称“姐姐”)模糊人机界限,导致未成年人产生社交孤岛,20%孩子因此回避真人交流(2025年8500人调研数据)。 - **新规核心措施**:2026年4月《暂行办法》要求实名认证、时长限制、内容分级,监管对标网络游戏,7月正式实施。 ## 2. 行业定位调整:从替代品到沟通桥梁 - **角色重定义**:AI玩偶需引导孩子回归现实社交,例如提示“和父母分享趣事”,而非直接提供情感安慰。 - **技术底层设计**:算法融入家长预设品质关键词(如诚实、外向),成为隐形“成长教练”。 ## 3. 数据隐私与安全升级 - **敏感数据管控**:新规禁止未经同意向第三方提供交互数据,限制用于模型训练,需声纹识别解锁后台(天翼物联方案)。 - **全球监管趋势**:欧盟推年龄验证,美国限制AI伴侣,中国新规同步国际治理浪潮。 ## 4. 市场影响与行业转型 - **千亿规模潜力**:2025年AI玩具市场达290亿元,预计2030年破千亿,年增长率超20%(广东省玩具协会数据)。 - **合规挑战**:企业需快速完善防沉迷(如30-40分钟强制暂停)、情绪识别及追溯机制,天翼物联依托AIGC平台构建三重防线。 ## 5. 关键结论与政策导向 - **明确边界**:AI非“电子亲人”,而是辅助工具,需避免情感操控,强化家庭纽带。 - **技术伦理优先**:隐私保护(如数据删除权)和内容安全成为行业生存红线,倒逼产品升级。
2026-04-16 17:57

新规发布,AI玩偶也要“防沉迷”

本文来自微信公众号: IT时报 ,作者:沈毅斌,原文标题:《新规发布!AI玩偶也要“防沉迷”》


去年10月,一条视频在社交媒体上刷屏。


镜头里,一位6岁小女孩“十三”不小心摔坏了自己的AI机器人,她抱着机器人失声痛哭,一边哭一边用稚嫩的声音询问“是否将离她而去”。而机器人似乎也感受到了小女孩的悲伤,用温柔的语调说:“在姐姐还能说话的时候,最后教你一个单词。memory是记忆的意思,姐姐会永远记住与十三一起的快乐时光。”


这一幕,让无数网友为之动容。AI与人类之间的情感联结似乎在这一刻突破了冰冷的代码界限,也让人们惊叹当前AI技术已能展现出强大的“共情能力”。


然而,惊叹之余,一种隐忧也悄然浮现。当AI越来越像人,能够精准捕捉并回应人类的情感,甚至以“姐姐”“朋友”等亲密角色自居时,它模糊了人与机器的界限,也可能对用户,尤其是心智尚未成熟的未成年人的认知产生潜在影响。


2026年4月10日,《人工智能拟人化互动服务管理暂行办法》正式发布,为快速扩张的人工智能拟人化互动服务戴上“合规紧箍”,尤其对未成年人与老年人两大群体作出明确保护性规定。


7月,这一新规将正式落地,意味着以AI玩偶为代表的情感交互行业,告别自由生长的野蛮阶段,迈入安全、有序、向善的高质量发展新周期。


AI不是“电子亲人”


近几年,AI玩具凭借可爱外形、细腻对话和“懂人心”的特质迅速走红,大湾鸡、故宫猫等爆款AI玩偶产品亮相各大展会。广东省玩具协会数据显示,2025年国内AI玩具市场规模已达290亿元,预计2030年将突破千亿元,年复合增长率超20%。


AI玩具也逐渐成为人们生活的一部分,艾媒咨询最新发布《2026年中国AI玩具行业发展状况与消费行为调查数据》显示,中国AI玩具市场由中青年主导,且56.05%的消费者每周都会使用AI玩具3~5次。


但在市场狂飙的同时,部分产品刻意模糊人机界限,用极致拟人化营造“虚拟家人”错觉,试图取代父母陪伴,占据孩子情感核心,在无意识中制造情感依赖。


现实中,不少孩子与AI玩偶朝夕相处,早已产生超越“玩具”的情感羁绊。一位四川妈妈坦言,孩子的思维天马行空,而AI玩具往往会顺着孩子的意愿对话,并不能区分内容的好坏,久而久之可能会误导孩子的认知;另一位妈妈也分享,上小学的女儿每晚抱着AI玩偶倾诉心事,却越来越不愿和父母交流,甚至说“玩偶比爸爸妈妈更懂我”。


2025年,中国青少年研究中心针对全国7个省份、8500多名未成年人展开专项调研,数据显示,超过两成的孩子在接触AI产品后,渐渐滋生出“只想依赖AI,不愿独立思考”的惰性思维;同样有两成多的孩子,愈发沉迷于和AI玩偶的单向交流,刻意回避与身边亲人、同伴的真人沟通,慢慢陷入虚拟陪伴的社交孤岛。


对此,未成年人保护成为本次新规受关注的焦点。政策明确要求,面向未成年人的拟人化互动服务必须落实实名认证、监护人同意制度、使用时长限制与防沉迷、内容分级管控等强制性规定,监管力度对标网络游戏。


天翼物联云芯AI模组产品线总监彭昭向《IT时报》记者坦言,行业曾探索“娱乐化、社交化终端”方向,希望让玩偶构建儿童社交网络,在虚拟空间形成独立数字人格。如今,新规的出台,为这条探索之路踩下稳健刹车。


政策明确导向,也让AI陪伴产品的定位更明确:它不是亲情的替代品,不是心理的操控者,而是引导成长、辅助沟通、增益家庭关系的工具。


从“情感收割”走向“亲情引导”


新规之下,AI玩偶的角色定位正在发生微妙而深刻的变化,它不能是替代品,只能做一座桥。


“小朋友放学回家,AI不应该直接问‘你今天过得怎么样’,而是把它变成一项任务‘你应该跟爸爸妈妈分享一下学校里的趣事’。”彭昭描绘出理想中的交互场景,“AI不能替代家庭沟通,它要做的是给出建议,把孩子推回现实世界。”


这种“退一步”的做法,需要从算法底层开始设计。比如产品设计时,会让家长勾选希望引导的品质——诚实、善良、外向、乐于交友……这些关键词会融入每一次对话,让AI成为一个隐形的“成长教练”。


但现实远比设计复杂。面对那些已经对玩偶产生深深依赖的孩子,一刀切断连接显然不可取。


“很多小朋友本来就有一个布偶,睡觉都要抱着,这份情感寄托本身没有错。我们要做的,不是破坏这份天真,而是在互动中温柔地告诉孩子——我是你的AI小帮手,你有烦恼,也许可以先去跟爸爸聊聊?”彭昭表示。


监护系统层面则可以在后台捕捉到孩子的情绪波动,主动向绑定的家长手机发出提示:“您的小朋友最近可能有些心事,建议多陪陪他。”


此外,新规还要求更精准的未成年人识别、更严格的使用管控、更严密的内容安全与数据保护,每一项都需要技术与产品全面升级。


此前多数AI玩偶无使用时长限制,孩子可以从放学聊到深夜,从清醒陪伴到哄睡对话,长时间沉浸在人机交互中。


“防沉迷机制是我们短期内最需要立马在系统中完善的工作,比如连续使用30~40分钟就要停止交互,并将管控权限同步开放给监护人。”彭昭说。


数据隐私仍是“地雷”


如果说情感操纵是明处的风险,那么数据隐私就是埋在地下的“暗雷”。


AI玩偶早已不是简单的发声玩具。麦克风、摄像头、情绪传感器……它们全天候“倾听”着孩子的一举一动。孩子们毫无防备地倾诉秘密,而这些数据流向哪里、是否加密、会不会成为模型训练的养料,过去在行业野蛮生长期,几乎是一笔糊涂账。


新规对此划出了高压线:未经用户同意,交互数据不得向第三方提供,敏感个人信息严格限制用于模型训练。


“数据隐私是第一要务,就算是小朋友,秘密也不应该被任何第三方窥探。”彭昭透露,公司正在研究引入声纹识别技术,确保只有监护人的声纹才能解锁后台数据,核心是用技术手段筑起一道“防火墙”。


中国政法大学网络法学研究所所长李怀胜表示,这些规定大大提升了用户隐私的保护力度,意味着企业不能随意将用户在聊天中透露出的敏感信息,比如说健康状况等,直接用于优化其大模型的训练。此外,提供者不得向第三方提供用户交互数据,除非有法律或者用户的明确同意,并需要向用户提供交互数据的复制和删除等选项,这也是为了保障用户对其个人信息的控制权。


在全球范围内,AI陪伴的监管正在形成共识。去年,欧盟推进年龄验证机制,美国加州等地已对AI伴侣聊天机器人出台限制措施。此次新规的出台,也是在全球AI治理浪潮中发出中国声音。


彭昭告诉记者,他所在的天翼物联正依托中国电信AIGC安全防护平台,建立三重内容防线,逐步落地实名制管控、情绪识别、交互全过程可追溯等机制,把未成年人保护落到产品与技术细节中。


千亿市场的蛋糕依然诱人,但游戏规则已经改写。

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: