2025年8月5日,OpenAI正式发布两款开源语言模型——GPT-OSS-120B和GPT-OSS-20B。这是自2019年GPT-2发布以来,OpenAI首次回归开源领域。这两款模型在推理能力、工具使用以及部署灵活性等方面表现出色,为开发者提供了强大的开源选择。
一、发布背景与意义
OpenAI此次开源旨在降低开发门槛、扩大安全研究样本,并给予社区更大的定制自由。自2019年发布GPT-2以来,OpenAI一直以闭源模型为主,此次开源标志着其战略的重大转变。CEO Sam Altman称GPT-OSS为“最先进的开放权重推理模型”,具有强大的现实世界性能。

二、性能表现
(一)GPT-OSS-120B
GPT-OSS-120B拥有1170亿参数,采用混合专家(MoE)架构,每次推理仅激活约51亿参数。在核心推理基准测试中,其表现接近OpenAI的o4-mini模型。具体来看,在竞赛编程(Codeforces)、通用问题解决(MMLU和HLE)以及工具调用(TauBench)方面,GPT-OSS-120B均优于o3-mini,甚至达到或超越了o4-mini的水平。此外,在健康相关查询(HealthBench)和竞赛数学(AIME 2024和2025)方面,其表现甚至超过了o4-mini。
(二)GPT-OSS-20B
GPT-OSS-20B参数量为210亿,适合在资源受限的环境中运行。在多个基准测试中,其表现与o3-mini相当,甚至在部分测试中超越了o3-mini。例如,在竞赛数学和健康领域基准测试中,GPT-OSS-20B的表现优于o3-mini。

三、部署与成本
GPT-OSS-120B可在单张80GB的GPU上高效运行,而GPT-OSS-20B仅需16GB内存即可在消费级笔记本电脑上运行。这种灵活的部署选项使得两款模型既适合企业级应用,也适合个人开发者。此外,OpenAI与Azure、Hugging Face等生态已完成适配,开发者可以一键部署。

四、安全与许可
OpenAI在模型训练中加入了“最坏情况微调”测试,并通过了其Preparedness Framework审核。此外,OpenAI还启动了50万美元的赏金计划,鼓励社区发现潜在的滥用路径。两款模型均采用Apache 2.0许可证,允许商业部署、再分发及二次微调,无需回馈源代码。

OpenAI此次开源GPT-OSS系列模型,不仅为开发者提供了强大的开源选择,也为AI模型的未来发展树立了新的标杆。随着开源模型的不断优化和社区的积极参与,AI技术的应用场景将进一步拓展。


