该工具让开发者可以在几分钟内启动AI应用,无需庞大团队和复杂的技术基础。对于企业而言,这意味着能够快速推出AI项目,提升创新能力,加速技术转化。
苹果最新推出的 AI 模型 Depth Pro 在深度估计领域取得重大突破,能快速生成高分辨率的3D深度图,无需相机元数据。该模型工作速度快,能捕捉微小细节,提供绝对深度估计,且开源共享。
一种3D虚拟试衣技术,它通过使用高斯散射(3DGS)作为3D表示,实现了从2D虚拟试衣模型到3D空间的知识转移,同时提高了跨视图的一致性。
一款24/7本地AI屏幕与麦克风录制工具,旨在帮助用户构建拥有完整上下文的AI应用。
Revisit-Anything 可以帮助用户高效地管理和回顾各种内容。它能够对文本、图像、代码等多种类型的文件进行分类和标记,方便用户快速找到所需内容。同时,该工具还支持搜索功能,用户可以通过关键词快速定位到特定的文件或信息。
CogView3是一个基于级联扩散框架的文本到图像生成系统,通过中继扩散技术实现精细且快速的图像生成。
Crawl4AI是一个为人工智能应用提供数据抓取和处理的工具,它能够帮助用户从各种网站和来源收集数据,以支持AI模型的训练和分析。
Molmo是由Allen AI研究所开发的一系列多模态人工智能模型,旨在通过学习指向其感知的内容,实现与物理和虚拟世界的丰富交互。
Westlake-Omni是一个开源的中文情感语音交互大语言模型,采用离散表示实现语音与文本模态的统一处理,支持低延迟生成和高质量的中文情感语音交互。
HuggingFace公司最新推出的HuggingChat原生macOS客户端为macOS用户带来了无缝且直观的高级AI对话体验,支持本地使用语言模型,并集成了Markdown、网页浏览、代码语法高亮等实用功能。用户可以通过简单的安装步骤快速启动应用,随时享受强大的AI聊天能力。
MIMO是一个先进的视频合成模型,能够模仿任何人在复杂动作中与物体互动,生成具有高度真实感和交互性的视频内容。
Moshi语音模型是由法国初创团队Kyutai开发的端到端语音交互模型,旨在提供自然流畅的语音对话体验。
LVCD是一种基于参考的带有扩散模型的线性视频着色工具。
个性化解决方案,旨在生成一系列图像时保持多个角色场景中人物的面孔、服装、发型和身材的一致性,从而创建连贯的故事。
由Kyutai实验室精心研发的全双工语音对话系统,它通过结合先进的文本语言模型、神经音频编解码器和多流音频语言模型,实现了更自然、更流畅的人机对话体验。
Ovis是由阿里国际AI团队开发的多模态大模型,它具备强大的图像理解和数据处理能力,能够处理文本、图像等多种数据类型。
一个专为iOS和macOS开发的音频处理库,它提供了一个简洁的API来处理音频数据,使得音频的录制、播放和分析变得异常简单。
GameGen-O:一款专为开放世界视频游戏生成而设计的扩散变换器模型。
DeepFakeDefenders是一个用于检测和防御深度伪造(DeepFake)技术的开源工具,通过集成先进的深度学习模型来识别图像中的伪造痕迹。
wechatferry是一个用于微信小程序的自动化测试与部署的工具,旨在提高小程序开发效率与测试覆盖率。
Mini-Omni是一款开源的多模态大型语言模型,支持实时端到端的语音输入和流式音频输出,能够在思考的同时进行语音交互。
一个开源的实时人像美化和背景替换工具,基于深度学习技术,为视频通话、直播和虚拟背景应用提供高级视觉效果。
VideoGameBunny-V1是一个基于Hugging Face平台的预训练模型,专注于视频游戏内容的理解与生成,旨在为游戏开发者、内容创作者和AI研究者提供强大的工具。
一款创新的图像生成模型,专注于混合现实与插画风格的图像创作。
ControlNext是一款强大的自动化控制系统设计与仿真平台,专为工程师和科研人员设计,用于快速搭建、测试和优化自动化控制策略。
Qwen2-VL是一个基于自然语言处理(NLP)技术的语音到文本(Voice-to-Text)和文本到语音(Text-to-Speech, TTS)转换工具,旨在提供高质量的语音转换服务。
Deep-Live-Cam是一个开源的实时面部交换和一键式视频深度伪造工具,它允许用户仅使用单张图片即可生成深度伪造视频。
Transfusion是一种用于训练多模态模型的方法,能够处理离散数据(如文本)和连续数据(如图像)。
一款由南洋理工大学S-Lab实验室开发的视频人脸超分辨率工具,旨在通过先进的AI技术显著提升视频帧中人脸细节的清晰度。
MagicFixup是由Adobe Research开发的一款创新工具,它通过学习和分析动态视频中的变化,来优化和提升静态照片的编辑效果,使编辑后的照片更加自然和逼真。
LongWriter是清华大学团队开发的长文本生成模型,专为生成超过10,000字的长篇连贯文本设计。
易采集/EasySpider是一个可视化无代码的网页数据采集工具,用户可以通过图形界面设计和执行爬虫任务,无需编写代码。
EmoTalk3D是一款集成情感识别与三维虚拟角色交互的创新性沟通工具,能够根据用户的语音或文本输入自动生成对应的情感表达,实现与虚拟角色的深度情感交流。
MiniCPM-V是由OpenBMB开发的一款面向端侧部署的多模态大型语言模型(MLLM),支持图像、视频和文本输入,提供高质量的文本输出。
Whisper-Medusa:一款基于Whisper模型的优化版语音识别工具,通过多解码头技术显著提升处理速度
CosyVoice是由阿里通义实验室开源的一款多语言语音生成模型,专注于高质量的语音合成,能够生成自然且逼真的语音。该模型支持多种语言、音色和情感控制,为用户提供了丰富的语音生成能力。
Flux 是一个开源的、基于 Go 语言的轻量级、高性能的 API 网关,旨在简化微服务架构中的服务间通信。它提供了丰富的功能来增强 API 的安全性、可维护性和可扩展性。
GitHub Models提供了一个交互式的模型游乐场,用户可以在这里测试不同的提示和模型参数,无需支付费用。此外,GitHub Models与Codespaces和VS Code集成,允许开发者在开发环境中无缝使用这些模型,并通过Azure AI实现生产部署,提供企业级安全和数据隐私保护。
Stable Video 4D(SV4D)是由AI公司Stability AI推出的首个视频生视频模型。该模型能够将单个物体的单视角视频输入,转换成8个不同视角的多视角视频,为用户提供全视图3D动态视频体验。
CLASI是一个由字节跳动研究团队开发的高质量、类人同声传译系统。它通过新颖的数据驱动读写策略平衡翻译质量和延迟,采用多模态检索模块来增强特定领域术语的翻译,利用大型语言模型(LLMs)生成容错翻译,考虑输入音频、历史上下文和检索信息。在真实世界场景中,CLASI在中英和英中翻译方向上分别达到了81.3%和78.0%的有效信息比例(VIP),远超其他系统。
H2O Danube3是由h2oai公司开发的一系列文本生成模型,专注于提供高质量的文本生成服务,广泛应用于聊天机器人、内容创作等领域。
CogVLM2-Video是一个专注于视频理解的模型,它利用了大型语言模型和多模态对齐技术,以实现在开放领域中对视频内容的深入理解。该模型通过自动化的时间定位数据构建方法,生成了30k与时间相关的视频问答数据,并通过这些数据训练出了新的视频理解模型。
EchoMimic是一款由蚂蚁集团研究团队推出的创新技术,能够根据音频内容和角色照片生成生动对口型视频。该技术突破了传统方法的局限性,实现了更逼真和动态的人像生成。
HumanAIGC 是一个专注于人工智能生成内容(AIGC)的GitHub仓库,汇集了多个前沿的AI项目,旨在通过人工智能技术简化内容创作过程,提高创作效率和质量。
MimicMotion是腾讯公司推出的一款人工智能人像动态视频生成框架,该框架利用先进的技术,能够根据用户提供的单个参考图像和一系列要模仿的姿势,生成高质量、姿势引导的人类动作视频。
GraphRAG,是一种基于图的RAG(检索增强生成)技术。GraphRAG旨在通过构建知识图谱来增强大模型在搜索、问答、摘要和推理等方面的能力。
AuraSR 是基于 GAN 的 Super-Resolution 模型,通过图像条件化增强技术,提升生成图像的质量。该模型采用 GigaGAN 论文的变体实现,并使用 Torch 框架。AuraSR 的优势在于能够有效提高图像的分辨率和质量,适用于图像处理领域。
WorldDreamer 是一个由清华大学团队开发的先进的视频生成模型,它能够全面理解视觉动态,并在多种场景下生成视频。这个模型在图像到视频合成、文本到视频生成、视频修复、视频风格化甚至动作到视频生成等方面表现出色。
“No Language Left Behind”(NLLB),旨在提供能够直接在200多种语言对之间进行高质量翻译的AI模型,包括资源较少的语言如阿斯图里亚斯语、卢干达语、乌尔都语等。
Hallo是由复旦大学开发的一项前沿技术,专注于肖像图像动画。它利用先进的扩散模型生成逼真且动态的肖像动画,与传统的参数模型相比,Hallo技术提供了更为自然和流畅的面部动作。
HumanPlus 是一个开源项目,旨在实现人形机器人的模仿学习和影子学习。该项目提供了人形影子变换器(Humanoid Shadowing Transformer, HST)和人形模仿变换器(Humanoid Imitation Transformer, HIT)的实现,以及全身姿态估计和相关硬件代码库的指南。
TabPedia是一个新型的大型视觉-语言模型,由中国科学技术大学和字节跳动公司联合开发。该模型通过概念协同机制,能够无缝集成多种视觉表格理解(VTU)任务,如表格检测、表格结构识别、表格查询和表格问题回答。
AutoStudio是一个基于文本到图像(Text-to-Image, T2I)生成模型的多轮交互式图像生成框架。它由三个基于大型语言模型(Large Language Models, LLMs)的代理和一个基于稳定扩散(Stable Diffusion, SD)的代理组成,用于生成高质量的图像序列。
该工具能够从单一图像生成具有复杂面部表情和身体动作的虚拟人物,包括笑、说唱、唱歌、眨眼、微笑、说话等效果。
LlamaGen 是一个公开的GitHub项目,专注于使用Llama系列模型进行图像生成的自回归模型研究。LlamaGen项目可能是基于Meta公司发布的LLaMA(Large Language Model Meta AI)大语言模型进行图像领域的拓展和应用。
Follow-Your-Emoji是一个基于扩散模型的人像动画框架,能够将目标表情序列动画化到参考人像上,同时保持人像身份的一致性、表情的传递、时间的连贯性和保真度。它通过采用表情感知标志和面部细粒度损失技术,显著提升了模型在控制自由风格人像表情方面的表现,包括真实人物、卡通、雕塑甚至动物。此外,它还通过简单有效的逐步生成策略,扩展到稳定的长期动画,增加了其潜在的应用价值。
YaFSDP是由俄罗斯科技巨头Yandex公司开源的一款大型语言模型(LLM)训练工具。它旨在通过优化GPU通信和减少内存使用量,来提高LLM训练的效率,并节省高达20%的GPU资源。
腾讯混元团队与中山大学、香港科技大学联合推出全新图生视频模型“Follow-Your-Pose-v2”,只需要输入一张人物图片和一段动作视频,就可以让图片上的人跟随视频上的动作动起来,生成视频长度可达10秒。
Mamba-2是由普林斯顿大学和卡内基梅隆大学的华人研究人员共同开发的新一代AI架构,它通过结构化状态空间对偶性(SSD)统一了状态空间模型(SSM)和注意力机制(Attention),实现了性能的显著提升。
NEXA AI,由两位斯坦福校友创办,提出了一种新方法,通过functional token整合多个开源模型,每个模型针对特定任务优化。他们开发了Octopus v4模型,智能地将用户查询引导至最合适的垂直模型,并重新格式化查询以实现最佳性能。
该工具让开发者可以在几分钟内启动AI应用,无需庞大团队和复杂的技术基础。对于企业而言,这意味着能够快速推出AI项目,提升创新能力,加速技术转化。