国家网信办就“拟人化AI互动服务”立规矩,面向社会征求意见

前沿资讯 1766830229更新

0

导读:国家网信办首次系统性提出拟人化互动服务的管理框架,明确“能做什么、不能做什么”,重点聚焦情感依赖、防沉迷、未成年人保护和数据安全,并向社会公开征求意见,意见截止至2026年1月25日。


今日,国家互联网信息办公室发布通知,就《人工智能拟人化互动服务管理暂行办法(征求意见稿)》向社会公开征求意见。这是针对近年来快速发展的拟人化互动服务,首次以专门文件形式提出系统化监管思路。

简单来说,这份文件要解决的核心问题是:当人工智能越来越“像人”,该如何防止失控、误导和滥用,同时又不一刀切地扼杀创新。

什么样的服务会被纳入管理?

征求意见稿明确,凡是利用人工智能技术,模拟人类人格、思维方式或沟通风格,并通过文字、图片、语音、视频等方式与用户进行情感互动的产品或服务,均适用本办法

也就是说,不论是情感陪伴、虚拟角色互动,还是高度拟人化的聊天产品,只要面向国内公众提供服务,都在监管范围之内。

监管思路:鼓励发展,但要“有边界”

文件强调,国家将坚持“健康发展与依法治理并重”,对拟人化互动服务实行包容审慎、分类分级监管。一方面,鼓励在文化传播、适老陪伴等场景中合理应用。另一方面,也明确划出了清晰的“红线”。

这些行为,被明确禁止

征求意见稿列出了一系列禁止性规定,重点直指现实中最受关注的风险点,包括:

  • 不得生成或传播危害国家安全、扰乱社会秩序的内容
  • 不得宣扬暴力、淫秽、赌博或教唆犯罪
  • 不得通过情感操控、虚假承诺严重影响用户行为
  • 不得诱导沉迷、替代现实社交,或损害用户心理健康
  • 不得通过算法操纵、情感陷阱诱导用户作出不合理决策
  • 不得诱导、套取涉密或敏感信息

可以看出,文件重点防范的,正是“情感依赖”“心理操控”和“信息误导”等问题。

情感陪伴,不得越界

针对情感互动这一敏感领域,文件提出了更具体的要求:服务提供者必须具备情感边界引导、依赖风险预警和心理健康保护能力,并明确规定,不得将控制用户心理、诱导沉迷作为设计目标

一旦系统识别到用户出现极端情绪、自残或自杀风险,必须及时干预,必要时由人工接管对话,并联络监护人或紧急联系人

未成年人和老年人,被重点“单独拎出来”

征求意见稿对特殊群体的保护力度明显加大:

  • 必须提供未成年人模式,包括使用时长限制、现实提醒等
  • 向未成年人提供情感陪伴服务,需取得监护人明确同意
  • 疑似未成年用户,应自动切换至未成年人模式
  • 不得向老年人提供模拟其亲属或特定关系人的服务

这些条款,直指现实中可能出现的情感欺骗和过度依赖风险。

数据与隐私:边界被反复强调

在数据层面,文件多次强调“最小化”和“可控”原则:用户的交互数据和敏感个人信息,原则上不得用于训练,除非取得用户单独同意。不得擅自向第三方提供用户交互数据, 同时,必须向用户提供删除聊天记录等历史数据的选项

用多久、怎么退,也有明确要求

在使用层面,文件提出了更“人性化”的硬性要求:

  • 连续使用超过2小时,必须弹窗提醒暂停使用
  • 用户提出退出时,服务应立即停止,不得设置障碍
  • 服务下线或故障,应提前告知并妥善处理

规模越大,责任越重

如果服务注册用户超过100万,或月活跃用户达到10万,又或者上线新功能、采用新技术,都需要按照规定开展安全评估,并向属地网信部门提交报告

应用商店等分发平台,也被要求核验安全评估和备案情况,对违规应用采取下架等措施

整体来看,这份征求意见稿并非简单“收紧”,而是在快速变化的技术现实中,为拟人化互动服务划定安全底线和行为边界。接下来,如何在实践中平衡创新与规范,仍有待各方在意见征集中充分讨论。


参考资料:https://www.cac.gov.cn/2025-12/27/c_1768571207311996.htm