阿里通义实验室最新研发的人像视频生成模型EMO现已在通义千问APP上线,向公众免费开放。利用该模型,用户可以通过上传一张人像图片与选择音乐,生成个性化的AI视频MV。
1. EMO模型的创新之处
与传统的数字人技术相比,EMO模型采用了创新的「弱控制」设计,省去了复杂的3D建模过程。这不仅大幅降低了视频生成的成本,还显著提高了视频质量。EMO模型能够精准捕捉并再现人类脸部的微妙情绪,将歌曲的韵律与人物的表情、嘴型完美同步,创造出极具感染力的AI数字人视频。
2. 使用EMO模型的简单步骤
你可以在手机应用商店中搜索通义千问APP,下载到手机中,用手机号注册,搜索“全民舞台”即可使用:
选择喜欢的模板
上传一张肖像照片
点击生成视频 目前,由于体验用户众多,生成一段视频可能需要约20分钟。建议用户在人流较少的时段进行视频生成。
3. EMO模型的应用前景
通义千问APP首批推出了80款EMO模板,覆盖了热门歌曲和网络热点。尽管EMO模型仍处于公测阶段,暂不支持自定义音频上传,但其已展现出在多个领域的应用潜力。未来,EMO模型有望在AI数字人生成、在线教育、影视制作和电商直播等领域发挥重要作用。
4. EMO模型背后的技术
EMO模型的核心在于其强大的学习能力,能够编译人类脸部情绪,生成与歌曲韵律和人物情绪完美匹配的视频。阿里通义实验室的这一创新成果,正在AIGC(AI Generated Content,人工智能生成内容)领域引起广泛关注。
5. 企业客户的关注
自从阿里AI团队发布相关论文以来,EMO模型便受到了业界的广泛关注。目前,通义实验室已接到众多企业客户的咨询,显示出市场对此类AI视频生成技术的迫切需求和浓厚兴趣。
全民舞台使用入口地址:https://www.yumiok.com/aitools/sites/1637.html