Gemini AI AnyChat是一个实验性平台,展示了 Gemini AI 在视觉处理领域的突破,能够同时处理实时视频和静态图像。
Kokoro是一款新发布的语音合成模型,具有8200万参数,以其轻量级设计和高效性能在TTS领域表现卓越。
全新开源模型,包括基础语言模型 MiniMax-Text-01 和视觉多模态模型 MiniMax-VL-01,旨在为开发者提供强大的 AI 能力。
具备强大的预测能力,可处理长达2048个时间点的单变量时间序列,支持任意预测时间跨度。
NVIDIA 推出的最新一代高性能计算架构,专为加速人工智能和高性能计算而设计。
一种基于音频条件的潜在扩散模型的端到端唇同步框架,能够直接建模复杂的音视频关联.
TANGOFLUX是一个高效的文本到音频(TTA)生成模型,拥有515M参数,能够在单个A40 GPU上仅用3.7秒生成长达30秒的44.1kHz音频。
VMix 是一个用于提升文本到图像扩散模型美学质量的插件式美学适配器。它通过在图像生成过程中引入美学控制,增强了生成图像的美学表现,同时保持了图像与文本的对齐。
一个用于图像超分辨率的开源工具,它通过先进的算法来增强图像的分辨率,使低分辨率图像变得更加清晰。
DisPose 是一种可控制的人体图像动画方法,它通过运动场引导和关键点对应来提高视频生成的质量。
INFP是一个音频驱动的交互式头部生成框架,能够在双向对话中动态合成具有逼真面部表情和节奏性头部姿态动作的代理视频。
给定一个参考图像池,ColorFlow 能够为黑白图像序列中的各种元素(包括角色的头发颜色和服装)准确地生成颜色,并确保与参考图像的颜色一致性。
一个可控音频生成模型,能够根据一组可解释的时变控制信号(响度、亮度、音高)和文本提示来创造高质量的声音。
Meta 公司推出的开源 AI 视频水印工具,旨在通过在 AI 生成的视频中加入不可察觉的水印来打击深度伪造和保护原创内容。
一款集成空间编织注意力的扩散模型工具,用于简化表情包视频的制作过程,提升图像和视频生成的质量和效率。
一项基于多模态联合训练的AI音频合成技术,能够根据视频或文本输入自动生成同步的音频效果。
一款专注于视频质量修复与增强的全新工具,能够一键将模糊视频变为超高清视频。
一款功能强大的图像生成和编辑模型,旨在通过一站式解决方案,高效处理多种视觉任务。
一款先进的文本图像到视频生成模型,能够根据简单的文本输入和图像生成高质量的视频内容。
AnyChat是一个集成了多种AI模型的多AI聊天平台,提供实时音视频交互和全功能APP解决方案。
一款集成了图像和文本引导的可控图像生成工具,支持图像融合和风格转移等多种功能。
SAMURAI 是一种基于 Segment Anything Model 2 (SAM 2) 增强的视觉对象跟踪工具,它通过引入时间运动线索和运动感知记忆选择机制,实现了无需重新训练或微调的鲁棒、准确跟踪。
Black Forest Labs(黑森林实验室)开发的一系列高性能图像生成模型的工具包。
项目旨在通过人工智能技术,创造一个无限广阔的数字宇宙,实现与现实世界相媲美的视觉效果和实时互动能力。
XiYan-SQL是一个创新的框架,它采用多生成器集成策略来提高自然语言到SQL任务中的候选生成质量。
一个统一的可控视频生成方法,它能够实现在不同条件下精确且一致的视频操作,包括相机轨迹、文本提示和用户动作注释。
一款基于视频扩散模型(VDM)的虚拟试穿技术,它能够结合给定的服装图像和人物视频,生成人物穿着该服装的高质量试穿视频。
微软TinyTroupe是一款基于大型语言模型(LLM)的人格模拟AI工具,能够模拟具备特定性格、兴趣和目标的虚拟角色。
CHANGER是一种新型头部融合管道,旨在为数字内容创作提供高保真的头部合成解决方案,特别适用于视觉效果(VFX)、数字人物创建和虚拟头像等领域。
Meissonic是一款由阿里巴巴集团、Skywork AI及多所高校共同研发的颠覆性图像生成模型,它基于掩蔽图像建模技术,能够生成高质量、高分辨率的图像。
AlphaFold3是由谷歌DeepMind团队开发的AI模型,能够预测蛋白质、核酸(DNA和RNA)、小分子、离子及修饰残基等生物分子的三维结构。
Qwen2.5-Coder是通义千问团队开源的一系列AI编程模型,旨在提升编程效率和性能,支持多种编程语言和代码相关任务。
一项由字节跳动和清华大学联合开发的肖像动画技术,它能够将静态肖像图像和驱动表演视频结合起来,生成具有高度表现力和真实感的角色动画和视频。
FLUX.1-dev LoRA 服装生成器利用先进的人工智能技术,为用户带来前所未有的时尚设计体验,让设计小白也能秒出服装效果图。
Moonshine是一个为边缘设备提供快速且准确的自动语音识别(ASR)的工具。
Meta MobileLLM是Meta(前Facebook)推出的专为移动设备设计和优化的大型语言模型,旨在解决云计算成本上升和延迟问题,使其非常适合在资源受限的设备上运行。
Toy Box Flux 是一个利用AI生成图像训练的3D渲染模型,结合了3D LoRA模型和Coloring Book Flux LoRA的权重,形成了独特的风格,特别适合生成具有特定风格的玩具设计图像。
Sana 是一个文本到图像的框架,能够高效生成高达4096×4096分辨率的图像。它以极快的速度合成高分辨率、高质量的图像,并保持强文本图像对齐,可部署在笔记本电脑GPU上。
NVIDIA推出的一款大型语言模型,它基于70亿参数的Nematron模型,经过特定指令训练,以提高其在自然语言处理任务中的性能和准确性。
OpenAI 开发的一个分布式计算工具,旨在简化跨多个机器和容器的复杂任务的执行和管理。
一个基于深度学习的文本到语音(Text-to-Speech,简称TTS)转换工具,由SWivid开发,旨在将文本转换为自然听起来的语音。
FLUX.1-Turbo-Alpha 是由阿里巴巴集团旗下的阿里妈妈创意团队开发的一个预训练语言模型。
一款由快手与北京大学联合研发并开源的视频生成模型。该模型利用深度学习技术,能够实现高质量的视频生成和处理,为用户提供了一种创新的视频内容创作工具。
该工具让开发者可以在几分钟内启动AI应用,无需庞大团队和复杂的技术基础。对于企业而言,这意味着能够快速推出AI项目,提升创新能力,加速技术转化。
苹果最新推出的 AI 模型 Depth Pro 在深度估计领域取得重大突破,能快速生成高分辨率的3D深度图,无需相机元数据。该模型工作速度快,能捕捉微小细节,提供绝对深度估计,且开源共享。
一种3D虚拟试衣技术,它通过使用高斯散射(3DGS)作为3D表示,实现了从2D虚拟试衣模型到3D空间的知识转移,同时提高了跨视图的一致性。
一款24/7本地AI屏幕与麦克风录制工具,旨在帮助用户构建拥有完整上下文的AI应用。
Revisit-Anything 可以帮助用户高效地管理和回顾各种内容。它能够对文本、图像、代码等多种类型的文件进行分类和标记,方便用户快速找到所需内容。同时,该工具还支持搜索功能,用户可以通过关键词快速定位到特定的文件或信息。
CogView3是一个基于级联扩散框架的文本到图像生成系统,通过中继扩散技术实现精细且快速的图像生成。
Crawl4AI是一个为人工智能应用提供数据抓取和处理的工具,它能够帮助用户从各种网站和来源收集数据,以支持AI模型的训练和分析。
Molmo是由Allen AI研究所开发的一系列多模态人工智能模型,旨在通过学习指向其感知的内容,实现与物理和虚拟世界的丰富交互。
Westlake-Omni是一个开源的中文情感语音交互大语言模型,采用离散表示实现语音与文本模态的统一处理,支持低延迟生成和高质量的中文情感语音交互。
HuggingFace公司最新推出的HuggingChat原生macOS客户端为macOS用户带来了无缝且直观的高级AI对话体验,支持本地使用语言模型,并集成了Markdown、网页浏览、代码语法高亮等实用功能。用户可以通过简单的安装步骤快速启动应用,随时享受强大的AI聊天能力。
MIMO是一个先进的视频合成模型,能够模仿任何人在复杂动作中与物体互动,生成具有高度真实感和交互性的视频内容。
Moshi语音模型是由法国初创团队Kyutai开发的端到端语音交互模型,旨在提供自然流畅的语音对话体验。
LVCD是一种基于参考的带有扩散模型的线性视频着色工具。
个性化解决方案,旨在生成一系列图像时保持多个角色场景中人物的面孔、服装、发型和身材的一致性,从而创建连贯的故事。
由Kyutai实验室精心研发的全双工语音对话系统,它通过结合先进的文本语言模型、神经音频编解码器和多流音频语言模型,实现了更自然、更流畅的人机对话体验。
Ovis是由阿里国际AI团队开发的多模态大模型,它具备强大的图像理解和数据处理能力,能够处理文本、图像等多种数据类型。
一个专为iOS和macOS开发的音频处理库,它提供了一个简洁的API来处理音频数据,使得音频的录制、播放和分析变得异常简单。
Gemini AI AnyChat是一个实验性平台,展示了 Gemini AI 在视觉处理领域的突破,能够同时处理实时视频和静态图像。