广电总局发布新规:严禁 AI 演员换脸声纹克隆,平台需建立核验机制

中国广播电视社会组织联合会演员委员会近日发布声明,明确禁止 AI 换脸声纹克隆等侵权行为,并要求平台加强审核和核验机制,以保护演员的合法权益。这一新规的出台,标志着 AI 技术在影视行业的应用将迎来更严格的监管。

端侧 AI 本地部署

一、新规要点:严禁未经授权 AI 换脸

根据演员委员会发布的声明,新规明确禁止未经授权使用演员影像与声频数据进行 AI 换脸和声纹克隆。声明强调,任何组织和个人不得利用 AI 技术擅自复制、修改、传播演员的面部形象或声音特征。

新规还要求平台建立核验机制,对上传的影视内容进行排查,发现侵权作品应及时下架处理。演员委员会表示,将启动常态化监测,对侵权主体进行法律追责,情节严重的将移交司法机关处理。

这一新规的出台,是对近期多起 AI 肖像权侵权事件的直接回应。随着 AI 换脸技术的普及,未经授权使用演员形象进行内容创作的现象屡见不鲜,严重侵害了演员的合法权益。

二、行业背景:AI 换脸技术滥用问题凸显

近年来,AI 换脸技术在影视制作、短视频创作等领域得到广泛应用。从早期的娱乐恶搞,到如今的商业化应用,AI 换脸技术的边界不断拓展,但也带来了诸多法律和伦理问题。

一些创作者为降低成本,使用 AI 换脸技术替代真人演员,甚至出现了 AI 复活已故演员、AI 替换在播剧集演员等争议事件。这些行为不仅侵犯了演员的肖像权,还可能对观众造成误导,扰乱市场秩序。

此次新规的出台,正是针对这些乱象的有力回应。演员委员会在声明中表示,支持 AI 技术在影视行业的合理应用,但必须在合法合规的前提下进行,不得损害演员的合法权益。

三、影响分析:平台责任加重,创作需规范

新规的实施将对影视行业产生深远影响。首先,平台方的审核责任将进一步加重。各大视频平台、短剧平台需要建立完善的 AI 内容识别和审核机制,对上传内容进行严格把关。

其次,AI 内容创作者需要更加规范。在使用 AI 工具进行创作时,必须确保素材来源合法,获得相关权利人的授权。对于涉及真人形象的内容,应当事先签订书面授权协议,明确使用范围和期限。

行业观察人士认为,新规的出台有助于规范 AI 技术在影视行业的应用,保护演员合法权益,促进行业健康发展。同时,这也提醒技术开发者,在研发 AI 工具时应考虑法律合规性,提供必要的授权验证功能。

目前,多家主流视频平台已表示将积极配合新规实施,完善内容审核机制。演员委员会也表示,将与相关部门合作,推动 AI 内容标识制度的建立,帮助用户识别 AI 生成内容,维护良好的行业生态。

AD:精心整理了2000+好用的AI工具!点此获取

相关推荐

1 1

免费AI工具合集,点击进入

AI对话

玉米AI助手