在人工智能内容生成技术突飞猛进的当下,一个古老而紧迫的问题正在被重新放大:眼见为实的时代,是否已经彻底结束? 深度伪造技术的泛滥让传统的"以眼辨真"变得不再可靠,而一项来自中国科技企业的最新成果,正在试图为这场信任危机提供技术答案。
蚂蚁集团近日在 CVPR 2026 NTIRE Image Detection Challenge 中一举斩获两项冠军——"复杂现实场景鲁棒性样本测试"赛道与"人脸增强异常检测"赛道双线告捷。这一成绩意味着,蚂蚁的 AIGC 检测技术已在全球最顶尖的学术竞技场上获得认可,并完成了从实验室能力到真实场景应用的实质性跨越。

一、深伪危机倒逼技术革新:为何现有检测模型纷纷失效
随着深度伪造和 AIGC 滥用风险持续攀升,传统的检测模型正面临前所未有的挑战。当前市面上的检测系统在面对未知生成架构和复杂降质干扰的双重极端测试时,准确率急剧下降——这些模型往往在实验室环境下表现优异,一旦进入社交媒体传播、二次翻拍等真实场景,便迅速失效。CVPR NTIRE 挑战赛正是针对这一行业痛点而设计,要求参赛模型在"未知生成架构"与"复杂降质干扰"的双重极端条件下,仍能保持高准确率和强鲁棒性。
蚂蚁集团源于支付场景,深耕安全技术二十余年,在该领域积累的防御能力已达到国际领先水平。如今,这套能力正系统性地向 AI 安全领域延伸。
二、DINOv3 视觉基座 + 双流并行架构:从实验室到现实的能力跨越
蚂蚁 AI 安全实验室团队在"复杂现实场景鲁棒性样本测试"赛道中,构建了包含数百万高质量样本的复杂训练语料库,覆盖 WildFake、Z-Image、Seedream、Nano-banana-pro 等开源数据集及前沿生成模型。底层架构采用双流并行集成结构,如同为检测模型配备了两只互补的眼睛,分别捕捉图像的局部细节和整体特征。
更值得关注的是,团队提出了名为"Locate-Then-Examine"的两阶段检测范式——先定位可疑区域,再进行精细审查,并同步构建了提供局部区域文本解释的 FakeXplained 数据集。该方法不仅能精准判断图像是否为 AI 生成,还能锁定图像中的伪造瑕疵或违反物理常识的区域,同时生成详细的解释说明。这一创新打破了传统"黑盒"检测的局限,使模型决策具有了可追溯性。团队还通过 GitHub 开源了领域内最全面的 AIGC 图像与视频检测资源库,推动技术社区共同应对 Deepfake 挑战。
在人脸增强异常检测赛道,蚂蚁国际团队凭借精准定位人脸图像异常区域的能力夺魁。该技术可精确识别并定位人脸图像中的异常区域,广泛应用于金融交易身份验证、开户材料审核等场景,为防范 Deepfake 和 AIGC 攻击提供关键保障。
三、从支付安全到 AI 安全:二十年安全能力的厚积薄发
CVPR 是由 IEEE 主办的计算机视觉与模式识别国际会议,与 ICCV、ECCV 并称为计算机视觉领域三大顶级会议。本次挑战赛吸引了全球超过 500 支团队参与,竞争激烈程度可见一斑。蚂蚁集团能够在如此规模的国际角逐中脱颖而出,并非偶然。
从支付风控到内容安全审查,再到金融身份认证,蚂蚁的 AI 安全技术已在多个高风险场景中落地验证。在跨境支付与金融服务中,蚂蚁国际已将 AIGC 识别技术深度应用于 EKYC、文件和资料防伪等环节,具备了覆盖多种类型生成内容检测的实战能力。这场从"被动防御"到"主动检测"的能力升级,标志着 AIGC 安全治理正在进入一个新的纪元——技术不再只是追踪假象,而是系统性地构建可信的内容生态。
随着多模态大模型的快速迭代,AIGC 内容的生成门槛正在持续降低,而与之配套的检测与治理能力将成为数字社会的基础设施。在这场看不见的攻防战中,蚂蚁集团已率先迈出了关键一步。


