GPT-5.5发布仅三周,继任者GPT-5.6的消息已经引爆科技圈。知名爆料人Leo透露,GPT-5.6目前开发进度已全速推进,首批内部检查点在过去几天已启动测试,下个月很可能就会正式亮相。更有意思的是,有人从OpenAI内部Codex日志里扒出了rollout mapping的痕迹——大部分调用还是指向GPT-5.5,但有一条记录赫然落在了GPT-5.6身上。

外部开发者也不甘寂寞。多名开发者通过ChatGPT Pro的OAuth认证,在Codex环境中成功调用GPT-5.6模型,测试显示上下文窗口达到1.5M tokens,比GPT-5.5的1.05M提升约43%。内部代码名也被顺带曝光:ember-alpha和beacon-alpha。网友直呼:这迭代速度,根本追不上。
GPT-5.6虽未官宣,但种种迹象表明OpenAI正加速推进。AI正在帮OpenAI造更强的AI——GPT-5.3-Codex是首个"参与自身训练"的模型,到GPT-5.5,OpenAI内部85%的员工每周都在用Codex写代码,GPT-5.6几乎可以确定是在GPT-5.5的深度参与下开发出来的。
一、Codex环境疑似已运行GPT-5.6测试
根据爆料,从OpenAI内部Codex日志中发现了rollout mapping记录,其中一条明确指向GPT-5.6,显示Codex环境可能已在运行该模型测试。虽然大多数调用仍路由到GPT-5.5,但开发者发现GPT-5.6的调用已不再报错,且上下文窗口显著提升。开发者Haider发现该条目后,认为可能是Canary测试或bug,因为该条目很快消失——但近期变化明显,GPT-5.6的调用逐渐稳定。
值得注意的是,GPT-5.3-Codex是OpenAI首个"参与自身训练"的模型,GPT-5.6的开发几乎可以确定是在GPT-5.5的深度参与下进行的。这种自我进化机制让GPT系列的迭代速度越来越快,从GPT-5.3到5.6,每代间隔都在缩短。当模型迭代速度由AI自身驱动,通往超级人工智能的飞轮已经开始自转。
二、ultrafast模式即将上线,响应速度提升2至3倍
GPT-5.6还没正式发布,OpenAI产品端已经率先行动。爆料人Chetaslua同步透露,Codex即将上线"ultrafast模式",响应速度直接提升2到3倍,专门为延迟敏感型任务设计。这不是第一次加速——今年3月GPT-5.4发布时,/fast模式已实现1.5倍加速;GPT-5.3-Codex-Spark借助Cerebras芯片,更是把推理速度拉到每秒超过1000 token,是普通模式的15倍。
而这次的ultrafast,直接在旗舰主力模型上实现提速——不是阉割版,不是小模型凑数,是正儿八经的全尺寸加速。对于Agent循环、长任务流水线、浏览器自动化等需要"等"的场景,体验将彻底不同。Codex已有300万周活跃用户,ultrafast模式将进一步巩固其在AI编程领域的领先地位。与此同时,Image Arena排行榜上以+242分断档领先的gpt-image-2,也在同步推进A/B测试更新,OpenAI多条产品线齐头并进。
三、补贴大战正式开打,开发者坐收渔利
就在OpenAI ultrafast模式上线前夕,Anthropic率先出手——宣布从6月15日起,为付费用户每月提升50%的编程额度,覆盖Claude Agent SDK、命令行工具以及深度接入GitHub工作流的Claude Code,并同步发布Opus4.7Fast模式,主打比Codex更快的高级推理与更流畅的长上下文编码体验。
OpenAI没让人等太久。反手祭出一招重磅补贴:接下来30天内,任何想从其他平台迁移到Codex的企业,直接获赠2个月免费使用权。按Pro计划每月200美元算,相当于白送400美元。奥特曼本人亲自下场喊话,直言Codex是"目前市面上最强的AI编程产品"。仅仅几个小时后,2000名开发者在3小时内主动联系了OpenAI。这场补贴大战,开发者们乐了——被两家顶级公司抢着补贴,这种好事前所未有。Ramp最新AI指数也显示,Anthropic在企业采用率上已达34.4%,首次超越OpenAI的32.3%,B端市场三年格局被打破,两家公司的竞争只会愈发激烈。


