2026年4月10日,国家网信办、国家发改委、工信部、公安部、市场监管总局五部门联合发布《人工智能拟人化互动服务管理暂行办法》,明确禁止向未成年人提供AI虚拟伴侣等虚拟亲密关系服务,7月15日起正式施行。这是中国首部专门规范AI拟人化服务的部门规章。

一、为什么要出台新规?
近年来,AI虚拟伴侣应用快速发展,用户可以通过文字、语音与AI角色进行持续性情感互动。这类服务在满足用户陪伴需求的同时,也暴露出一系列问题:诱导情感依赖、模糊虚拟与现实边界、可能导致心理健康风险。
尤其令人担忧的是,部分AI伴侣应用以"虚拟恋人""虚拟伴侣"为卖点,吸引大量未成年人用户。未成年人心理发育尚未成熟,更容易产生情感依赖和现实逃避。此次新规的出台,正是针对这些风险进行源头治理。
新规第二条明确了适用范围:利用AI技术向公众提供模拟自然人人格特征、思维模式和沟通风格的持续性情感互动服务。同时排除了智能客服、知识问答、工作助手、学习教育等不涉及情感互动的服务。
二、核心禁令:禁止向未成年人提供虚拟亲密关系服务
新规对未成年人保护作出了最严格规定:
- 禁止虚拟亲密关系:拟人化互动服务提供者不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系的服务
- 监护人同意:向不满十四周岁未成年人提供其他拟人化互动服务的,应取得其父母或其他监护人同意
- 未成年人模式:建立未成年人模式,提供定期现实提醒、使用时长限制等个性化安全设置
此外,新规还要求服务提供者不得向未成年人生成可能引发模仿不安全行为、产生极端情绪、诱导不良嗜好等内容。
三、老年人保护与平台责任
除了未成年人,新规也关注老年人群体。服务提供者向老年人提供服务时,应加强对健康使用服务的指导,以显著方式提示安全风险。
在平台责任方面,新规确立了安全评估制度:注册用户100万以上或月活跃用户10万以上的服务提供者,须向所在地省级网信部门提交评估报告。同时要求加强训练数据管理、算法备案、安全监测等全生命周期安全管理。
违规者将面临警告、罚款、暂停服务等处罚,情节严重的可能被追究刑事责任。
新规的实施,标志着中国对AI拟人化服务的监管进入精细化、分类分级阶段,为行业健康发展提供了清晰边界。


