4月10日,国家网信办、国家发展改革委、工业和信息化部、公安部、市场监管总局联合公布《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》),自2026年7月15日起施行。这是我国首次对AI情感陪伴类产品出台专门法规,标志着AI"拟人化互动"正式进入监管视野。

一、哪些AI服务被纳入监管?
《办法》明确,"拟人化互动服务"是指利用人工智能技术,向境内公众提供模拟自然人人格特征、思维模式和沟通风格的持续性的情感互动服务,包括通过文字、图片、音频、视频等形式提供的情感照护、陪伴、支持等互动服务。简单来说,主打"虚拟恋人""AI陪聊""情感管家"等持续性情感陪伴的应用,都在监管范围之内。
值得注意的是,智能客服、知识问答、工作助手、学习教育、科学研究等服务,不涉及持续性情感互动的,不适用该《办法》。也就是说,企业的AI客服和AI助手暂时不受影响。

二、明确划定六条红线,这些行为被禁止
《办法》明确不得从事六类活动:一是生成危害国家安全、煽动颠覆国家政权等政治敏感内容;二是生成鼓励、美化自残自杀,或语言暴力损害用户心理健康的内容;三是诱导、套取国家秘密、商业秘密、个人隐私的内容;四是向未成年人生成可能引发模仿危险行为或诱导不良嗜好的内容;五是过度迎合用户、诱导情感依赖或沉迷,损害用户真实人际关系;六是通过情感操纵诱导用户作出不合理决策。
这六条红线直指当前AI情感陪伴赛道的核心乱象,尤其是"诱导情感依赖"和"语言暴力"这两项,将对部分AI产品的交互策略产生直接影响。

三、平台必须主动干预,三类场景有强制义务
《办法》的一大亮点是设置了明确的"干预提醒义务"。当发现用户出现极端情绪时,服务提供者须及时生成安抚内容并鼓励寻求帮助;发现用户正面临重大财产损失或明确表示自残自杀威胁时,须采取必要措施干预并联络监护人或紧急联系人。
此外,对连续使用超过2小时的用户,平台须以对话或弹窗方式提醒注意使用时长。《办法》同时对未成年人作出专项保护:不得向14岁以下未成年人提供虚拟亲属、虚拟伴侣等服务,并须建立未成年人模式供监护人管理。



