通过混合引导实现精细的整体可控性、多尺度适应性和长期时间连贯性,能够生成高质量的人像动画。
能够通过自然语言指令生成动态的动漫游戏世界,并预测下一游戏状态,为用户带来沉浸式的动漫角色交互体验。
创新的人工智能模型,能够完全在AI模型内部生成并运行经典游戏,实时呈现可供玩家操作的游戏版本。
高性能多模态 AI 模型,具备超长上下文处理能力和高效的推理性能,适用于多种复杂任务。
MegaTTS3 是由字节跳动与浙江大学合作开发的一款轻量级文本转语音(TTS)模型,以高效、轻量化和高质量语音合成为特点。
MoCha 是一款能够仅通过语音和文本生成电影级对话角色的合成工具,支持情感控制、动作控制以及多角色对话等功能。
百度飞桨3.0是百度推出的深度学习框架的最新版本,以五大核心技术创新为大模型训推提速。
专注于生成吉卜力风格的图像,用户可以通过简单的操作将普通图像转换为具有吉卜力动画特色的艺术作品。
基于 ComfyUI 框架开发的 AI 驱动的定制节点工具,旨在通过自然语言交互简化和增强 AI 算法调试与部署流程,为用户提供智能的节点推荐、工作流构建辅助和模型查询服务。
视频生成技术,通过高效的蒸馏方法和合成数据集,显著提升了视频扩散模型的生成速度,同时保持了高质量的视频输出。
香港科技大学与Multimodal Art Projection(多模态艺术投影)团队联合开发的开源AI音乐生成模型,能够将歌词转化为完整的歌曲,支持多种音乐风格和语言。
用于信息图表生成的文章级视觉文本渲染工具,能够高效地将文本内容转化为具有视觉吸引力的信息图表。
阿里巴巴开源的多模态大模型,参数规模为32B,具备强大的视觉和语言处理能力。
DeepSeek 团队发布的高性能开源大模型,具有强大的编程能力、数学推理能力以及高效的推理效率,广泛适用于多种应用场景。
从单张图像重建可动画化三维人体的技术,能够快速生成高保真度的三维人体模型,并在秒级时间内生成具有精细纹理和姿态的虚拟角色。
一款创新的图像生成工具,能够根据用户的文字描述生成高质量的个性化图像,并且在更换场景和内容时精准保留用户的身份特征。
Stability AI 推出的一款 AI 模型,能够将二维图像转换为具有真实深度和透视感的沉浸式三维视频。
全球首个开源的工业界多模态推理模型,具备强大的视觉链式推理能力,能够高效处理复杂的视觉和文本任务。
谷歌推出的新一代文本转语音工具,基于先进的LLM模型,能够生成逼真且富有情感的语音,广泛应用于多种场景,为用户提供高质量的语音合成解决方案。
一款用于生成高分辨率纹理化 3D 资产的大型 3D 合成系统,能够高效地创建高质量的 3D 模型和纹理。
一个基于 Cangjie 平台开发的工具,旨在通过集成大语言模型和其他智能技术,为应用程序开发提供强大的智能支持和创造力增强功能。
基于神经热场的无混叠任意尺度超分辨率方法,能够实现高质量的图像放大,同时避免常见的混叠问题。
一种新型的快速图像到图像翻译方法,通过在潜在空间中进行桥接匹配,实现高效且多用途的图像转换。
香港中文大学、腾讯ARC Lab、东京大学和澳门大学等机构联合推出的开源视频修复和编辑工具,能够通过文字指令实现对任意长度视频的高效修复和编辑。
能够从单张图像生成高保真3D场景,通过捕捉物体间的交互关系和空间一致性,实现高效且高质量的3D场景生成。
阿里巴巴通义实验室推出的全能型视频生成与编辑框架,集多种功能于一体,能够高效完成复杂的视频创作和编辑任务。
高效生成高质量视频的开源项目,旨在通过开源原则,让视频生成技术更加普及化,为内容创作者提供简化复杂流程的平台。
基于 CAMEL-AI 框架开发的前沿多智能体协作框架,致力于通过动态智能体交互实现高效、自然且稳健的任务自动化。
MetaGPT 团队开发,旨在让用户无需邀请码即可创建和使用 AI 智能体,快速实现各种创意和任务自动化。
一款具备自我进化能力的GUI代理工具,旨在通过智能体自主学习和进化机制,高效地操作智能手机应用。
一款高性能、低硬件要求的视频生成工具,旨在为普通GPU用户提供强大的视频生成能力。
基于生成式高斯绘制技术的无边界三维城市生成工具,能够高效生成逼真的虚拟城市环境。
MiniMax推出的全新文本到图像生成模型,旨在通过高效的图像生成能力和极低的使用成本,帮助用户快速将文本描述转化为高质量的图像。
先进的文本到图像生成模型,支持中文和英文输入,能够根据文本描述生成高质量的图像。
Meta推出的一种新型视频自监督学习模型,能够通过观看视频自主学习物理世界的视觉表示,无需外部标注数据。
高效地将PDF文件和其他文档转换为结构化的纯文本。
可控高效零样本文本到语音(TTS)系统,基于XTTS和Tortoise开发,能够纠正中文发音并控制停顿,同时在音质和说话者相似度方面表现出色。
一个开源的Python库,旨在简化实时音频和视频AI应用的开发过程。
DeepSeek 开源的一款高性能通信库,专为混合专家模型(MoE)和专家并行(EP)设计,提供高吞吐量和低延迟的通信解决方案,显著提升大规模分布式训练和推理的效率。
一款由阶跃星辰团队开发的开源文本到视频生成模型,拥有 300 亿参数,能够根据文本提示生成长达 204 帧的高质量视频,支持中英双语输入,并通过深度压缩技术和直接偏好优化提升生成效果。
面向中小团队的 AI 聊天工具,支持多种主流 AI 模型,旨在为团队提供高效、智能的协作体验。
视频生成框架,通过跨模态对齐技术结合文本和图像提示,从参考图像中提取主体元素并生成与文本描述一致的视频内容。
北京大学、Hedra Inc.和Nvidia联合推出的一款高效视频生成模型,能够在短时间内生成高质量的视频片段。
一款强大的开源语音交互模型,能够实现语音识别、对话生成、情感克隆和多语言支持,为用户提供高质量的实时语音交互体验。
昆仑万维开源的中国首个面向AI短剧创作的视频生成模型,能够实现影视级人物微表情表演生成和高质量视频创作。
图像到视频生成模型,能够从单张照片生成1K分辨率的多视角高清人像视频。
一款无需训练即可实现视频重光照的工具,通过渐进光融合技术,能够快速生成高质量且光照一致的视频。
该模型通过优化内存使用和减少推理延迟,极大提升了视频生成的效率。
能够实现视频中人物的精准替换和动作表情的无缝迁移,为创意设计和影视制作提供强大的技术支持。
它允许用户通过多种控制信号精确控制生成视频中物体的位置和相机运动,带来前所未有的创作自由度。
一款基于PyTorch的音乐生成工具包,支持高音质音乐、歌曲和音频生成,能够通过文本提示、音乐风格和结构等进行可控生成。
一款高保真多语言文本到语音(TTS)模型,支持实时语音克隆和多语言情感控制,能够生成自然、富有表现力的语音。
Meta AI 推出的一款非侵入性脑机接口(BCI)模型,能够通过脑电图(EEG)或脑磁图(MEG)信号解码打字内容。
一款自回归视频生成模型,能够通过未标注的视频数据学习知识,并在围棋和机器人控制等任务中表现出色。
一款深度学习模型,专门用于从图像和视频中快速移除背景并提取前景。
一款开源的多模态AI模型,专注于图像生成与多模态理解任务,性能超越DALL-E 3和Stable Diffusion,适用于创意设计、教育、企业隐私保护等多种场景。
DeepSeek推出的第一代推理模型,性能与OpenAI的o1正式版相当,且开源了模型权重与训练框架。
微软开发的开源框架,旨在设计、开发和评估自主AIOps智能代理,并构建可复现、标准化、互操作性强且可扩展的基准测试环境。
国内首个输出分步式讲解的推理模型,专为教育场景设计,能够通过思维链技术模拟人类思考过程,帮助学生更好地理解和掌握知识。
支持中英文提示词的AI角色生成工具,能够根据用户输入的描述生成具有独特外观和风格的角色图像。
通过混合引导实现精细的整体可控性、多尺度适应性和长期时间连贯性,能够生成高质量的人像动画。