《人工智能拟人化互动服务管理暂行办法》解读
发布时间 2026-04-27发布时间 2026-04-10 施行时间:2026-7-15
发布部门:国家互联网信息办公室、国家发展和改革委员会、工业和信息化部、公安部、国家市场监督管理总局(五部门联合发布)
2026年4月10日,国家互联网信息办公室等五部门联合公布《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》),这是我国首部专门针对“AI拟人化情感互动服务”的部门规章,也是全球首个针对AI情感陪伴、虚拟人、虚拟伴侣等场景出台的国家级专项监管规则。《办法》将于2026年7月15日起正式施行,与2026年1月1日施行的新修改《网络安全法》在人工智能治理领域形成有效衔接,共同构建我国人工智能安全治理的制度框架。
一、政策定位:发展与安全并重,填补监管空白
与《网络安全法》修改中“明确人工智能发展与安全并重框架”的立法精神一脉相承,《办法》在总则中开宗明义:国家坚持发展和安全并重、促进创新和依法治理相结合的原则,对拟人化互动服务实行包容审慎和分类分级监管。
从适用范围看,《办法》精准聚焦“模拟自然人人格特征、思维模式和沟通风格的持续性的情感互动服务”。智能客服、知识问答、工作助手、学习教育、科学研究等不涉及“持续性情感互动”的服务,明确不适用本办法。这一界定既避免监管泛化,又确保真正需要规范的情感陪伴、虚拟伴侣等高风险场景纳入监管视野。
二、核心红线:划定AI拟人服务的七大禁止性活动
《办法》第八条采用“列举+兜底”方式,为AI拟人化互动服务划定了明确的安全底线,与新修改《网络安全法》中“完善网络安全法律责任制度”的立法思路形成呼应:
一是国家安全底线:不得生成危害国家安全、荣誉和利益,煽动颠覆国家政权、宣扬恐怖主义、极端主义等内容。
二是身心健康底线:不得生成鼓励、美化、暗示自残自杀等损害用户身体健康的内容,不得以语言暴力损害用户人格尊严与心理健康。这一规定与《办法》第十三条关于“极端情绪识别与干预”义务形成配套。
三是信息安全底线:不得生成诱导、套取国家秘密、工作秘密、商业秘密、个人隐私和个人信息的内容。
四是未成年人保护底线:不得向未成年人用户生成可能引发未成年人模仿不安全行为、影响身心健康的内容。
五是防沉迷底线:不得过度迎合用户、诱导情感依赖或者沉迷,损害用户真实人际关系。
六是防操纵底线:不得通过情感操纵等方式,诱导用户作出不合理决策,损害用户合法权益。
三、制度创新:三层治理机制
(一)全生命周期安全管理制度
《办法》要求服务提供者建立健全算法机制机理审核、科技伦理审查、信息内容管理、网络和数据安全等管理制度。在服务部署、运行、升级、终止各阶段,保证安全措施与服务功能同步部署、同步使用,定期开展安全监测和风险评估。
(二)安全评估与算法备案双重机制
《办法》第二十二条、第二十三条明确了安全评估的触发情形和重点内容。上线服务、增设功能、注册用户100万以上或月活跃用户10万以上等情形,必须向省级网信部门提交评估报告。同时,要求按照《互联网信息服务算法推荐管理规定》履行算法备案手续,网信部门对备案材料实施年度核验。
(三)“人工智能沙箱”创新监管
《办法》第二十八条首次在人工智能专门立法层面提出“人工智能沙箱”创新治理理念,鼓励服务提供者接入沙箱平台进行技术创新、安全测试。这一机制与新修改《网络安全法》中“以AI治理AI风险”的技术对弈范式高度契合,体现了从“被动监管”向“主动赋能”的治理升级。
四、用户权益保护:细化个人信息保护与退出机制
(一)敏感个人信息模型训练限制
《办法》第十六条明确,除法律、行政法规另有规定或者取得用户单独同意外,不得将属于用户敏感个人信息的交互数据用于模型训练。这意味着,AI陪伴服务中收集的用户情绪、心理健康等信息,不能默认用于训练模型,必须单独弹窗告知并获取明确同意。
(二)交互数据权益保障
服务提供者应当向用户提供交互数据复制、删除等选项,用户可以选择对聊天记录等历史交互数据自主处理。同时提供便捷的退出途径,不得以持续互动等方式阻碍用户退出。
(三)强制干预提醒义务
《办法》第十三条、第十八条设置了多层干预提醒机制:发现用户出现极端情绪的,应当及时安抚;发现用户面临自残自杀等威胁生命健康的极端情境,必须采取援助措施并联络紧急联系人;发现用户过度依赖、沉迷倾向的,以弹窗显著提醒;连续使用每超过2个小时,必须提醒用户注意使用时长。
五、特殊群体保护:未成年人及老年人
未成年人保护是《办法》的重中之重。明确不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务;向不满十四周岁未成年人提供服务,必须取得监护人同意;必须建立未成年人模式,提供时长限制、角色屏蔽、消费限制等功能;处理不满十四周岁未成年人个人信息,必须取得监护人同意。
老年人保护方面,要求服务提供者加强对老年人健康使用服务的指导,以显著方式提示安全风险,及时响应老年人的咨询和求助。
六、法律责任:梯度化处罚
《办法》第三十条设定了梯度化处罚机制:违反规定的,由网信、工信、公安等部门依法处理处罚;无上位法依据的,予以警告、通报批评、责令限期改正;拒不改正或情节严重的,责令停止服务,并处一万元以上十万元以下罚款;涉及危害公民生命健康安全且有危害后果的,并处十万元以上二十万元以下罚款。
值得注意的是,金融合规领域提示,若服务提供者违反个人信息保护规定,最高可处20万元罚款,且可被责令停止相关服务,停服风险直接影响业务连续性,合规代价远高于罚款本身。
七、企业合规要点
结合《办法》规定及金融行业合规实践分析,涉及AI拟人化互动服务的企业应重点关注以下合规要求:
(一)全面开展场景排查:厘清现有AI应用是否构成“持续性情感互动”,是否落入《办法》适用范围,避免误判导致违规。
(二)建立敏感数据专项治理机制:将拟人化互动中收集的用户情绪、心理状态等敏感信息作为最高级别敏感数据管理,实行单独授权、分类存储、访问控制、定期清理全流程管控。
(三)完善未成年人保护体系:部署有效的未成年人身份识别机制,确保“未成年人模式”不可绕过,可委托第三方专业机构开展未成年人个人信息合规审计。
(四)嵌入极端情绪预警与干预体系:建立AI、人工客服、紧急联系人联动干预机制,在隐私政策中明确告知情绪数据的收集、使用与干预规则。
(五)按时完成安全评估与算法备案:在规定期限内完成评估报告提交和算法备案,接入人工智能沙箱安全服务平台进行合规测试,降低试错风险。
(六)化解数据留存义务冲突:对于《办法》要求的用户数据可删除与金融监管要求的数据留存(如反洗钱数据保存5年)之间的冲突,应做好数据分类隔离——情感互动数据独立存储、独立管理,交易数据依法留存,两类数据互不影响。
八、结语
《人工智能拟人化互动服务管理暂行办法》的出台,标志着我国AI治理从“通用规范”迈向“场景化、精细化规制”的新阶段。与新修改《网络安全法》中“以AI治理AI风险”的治理范式创新相呼应,《办法》通过“人工智能沙箱”等制度设计,为技术创新提供了合规测试空间。对于各类拟人化互动服务提供者而言,这既是必须守住的合规底线,也是推动行业从“粗放增长”向“技术可靠、伦理可控、场景合规”高质量发展的转型契机。企业应在2026年7月15日施行前,完成制度、技术、法律文书的全面整改,实现创新与合规的平衡发展。
