前沿资讯
1766830229更新
0
导读:国家网信办首次系统性提出拟人化互动服务的管理框架,明确“能做什么、不能做什么”,重点聚焦情感依赖、防沉迷、未成年人保护和数据安全,并向社会公开征求意见,意见截止至2026年1月25日。
今日,国家互联网信息办公室发布通知,就《人工智能拟人化互动服务管理暂行办法(征求意见稿)》向社会公开征求意见。这是针对近年来快速发展的拟人化互动服务,首次以专门文件形式提出系统化监管思路。
简单来说,这份文件要解决的核心问题是:当人工智能越来越“像人”,该如何防止失控、误导和滥用,同时又不一刀切地扼杀创新。
什么样的服务会被纳入管理?
征求意见稿明确,凡是利用人工智能技术,模拟人类人格、思维方式或沟通风格,并通过文字、图片、语音、视频等方式与用户进行情感互动的产品或服务,均适用本办法。
也就是说,不论是情感陪伴、虚拟角色互动,还是高度拟人化的聊天产品,只要面向国内公众提供服务,都在监管范围之内。
监管思路:鼓励发展,但要“有边界”
文件强调,国家将坚持“健康发展与依法治理并重”,对拟人化互动服务实行包容审慎、分类分级监管。一方面,鼓励在文化传播、适老陪伴等场景中合理应用。另一方面,也明确划出了清晰的“红线”。
这些行为,被明确禁止
征求意见稿列出了一系列禁止性规定,重点直指现实中最受关注的风险点,包括:
- 不得生成或传播危害国家安全、扰乱社会秩序的内容
- 不得宣扬暴力、淫秽、赌博或教唆犯罪
- 不得通过情感操控、虚假承诺严重影响用户行为
- 不得诱导沉迷、替代现实社交,或损害用户心理健康
- 不得通过算法操纵、情感陷阱诱导用户作出不合理决策
- 不得诱导、套取涉密或敏感信息
可以看出,文件重点防范的,正是“情感依赖”“心理操控”和“信息误导”等问题。
情感陪伴,不得越界
针对情感互动这一敏感领域,文件提出了更具体的要求:服务提供者必须具备情感边界引导、依赖风险预警和心理健康保护能力,并明确规定,不得将控制用户心理、诱导沉迷作为设计目标。
一旦系统识别到用户出现极端情绪、自残或自杀风险,必须及时干预,必要时由人工接管对话,并联络监护人或紧急联系人。
未成年人和老年人,被重点“单独拎出来”
征求意见稿对特殊群体的保护力度明显加大:
- 必须提供未成年人模式,包括使用时长限制、现实提醒等
- 向未成年人提供情感陪伴服务,需取得监护人明确同意
- 疑似未成年用户,应自动切换至未成年人模式
- 不得向老年人提供模拟其亲属或特定关系人的服务
这些条款,直指现实中可能出现的情感欺骗和过度依赖风险。
数据与隐私:边界被反复强调
在数据层面,文件多次强调“最小化”和“可控”原则:用户的交互数据和敏感个人信息,原则上不得用于训练,除非取得用户单独同意。不得擅自向第三方提供用户交互数据, 同时,必须向用户提供删除聊天记录等历史数据的选项。
用多久、怎么退,也有明确要求
在使用层面,文件提出了更“人性化”的硬性要求:
- 连续使用超过2小时,必须弹窗提醒暂停使用
- 用户提出退出时,服务应立即停止,不得设置障碍
- 服务下线或故障,应提前告知并妥善处理
规模越大,责任越重
如果服务注册用户超过100万,或月活跃用户达到10万,又或者上线新功能、采用新技术,都需要按照规定开展安全评估,并向属地网信部门提交报告。
应用商店等分发平台,也被要求核验安全评估和备案情况,对违规应用采取下架等措施。
整体来看,这份征求意见稿并非简单“收紧”,而是在快速变化的技术现实中,为拟人化互动服务划定安全底线和行为边界。接下来,如何在实践中平衡创新与规范,仍有待各方在意见征集中充分讨论。
参考资料:https://www.cac.gov.cn/2025-12/27/c_1768571207311996.htm
豫公网安备41010702003375号