在全球 AI 竞争日益激烈的背景下,中国科学技术大学与字节跳动联合发布了具有突破性意义的 MoGA 长视频生成模型。这一端到端的生成模型采用了 MoGA 算法,能够在分钟级别内生成高质量的视频内容,并支持多镜头场景切换,标志着国产技术在全球 AI 领域取得了重要突破。
一、分钟级多镜头视频生成,突破传统短时限制
传统视频生成模型往往受限于显存和计算量,只能生成几秒钟的动画 GIF 或短片。而 MoGA 模型则能一次性生成分钟级别的高质量长视频,并支持多镜头切换,大大增强了视频内容的丰富性和多样性。
二、引入 MoGA 算法,优化上下文处理与算力开销
MoGA(Modular Global Attention)算法是该模型的核心技术之一。它通过优化上下文处理能力以及计算资源的消耗,提升了模型在长视频生成中的效率和质量。通过这一算法,MoGA 能够更好地理解视频中的长时序关系,确保视频生成过程中内容连贯、结构合理,避免了以往长视频生成过程中常见的“信息丢失”问题。
三、支持影视、广告等多领域应用,具备产业落地潜力
MoGA 长视频生成模型的发布,不仅为影视制作、广告创意等行业带来了新的创作工具,还具备了巨大的产业落地潜力。无论是广告主、影视公司,还是内容创作者,都能够通过这一模型一键生成高质量的长视频,极大地降低了创作成本,提高了生产效率。


