刚刚,GPT-6(Spud)如期降临!OpenAI连夜上线,这一次人类又输了?

18个月、20亿美元、10万张H100 GPU,这颗“土豆”真的熟了。200万Token上下文、性能暴增40%、API价格直接腰斩——OpenAI用GPT-6把整个AI行业的天花板,再次轰开了一个大洞。

4月14日,AI圈年度最大悬念终于落地。

北京时间当天凌晨,OpenAI正式发布了代号“Spud”(土豆)的GPT-6模型。这是继GPT-5之后最重磅的一次大版本更新——上一次OpenAI花接近两年时间憋大招,还是从GPT-4到GPT-5的跨越。

而这一次,这颗“土豆”的含金量,远超大多数人的预期。

200万Token上下文:一次性读完150万字是什么概念?

GPT-6最硬核的升级,是上下文窗口直接干到了200万Token

这组数字意味着什么?换算成中文,大约150万字——相当于两部《红楼梦》全文,或者三部《战争与和平》的体量。

对比一下前代:GPT-5.4的上下文窗口是100万Token,Claude Opus 4.6也是100万左右。GPT-6直接翻了一倍。

这不是简单的“加量”,而是质变

200万Token意味着你可以把整本教科书、整个项目的百万行代码库、上百篇学术论文一次性喂给AI,它能在全局视野下给出分析,而不是像以前那样分段处理、前后信息断裂。

更夸张的是,GPT-6在这个超长上下文里不存在“注意力衰减”问题——即使在上下文末尾,推理精度仍能保持95%以上。以前用长文档时AI那种“越读越迷糊”的体验,基本被干掉了。

48小时实测数据更吓人:全仓库10万+行代码一次载入,分析准确率97.3%;IMO数学竞赛题6道全解;200轮以上多轮对话上下文完整无遗忘;最长自主任务执行记录达到4.2小时。

OpenAI CEO Sam Altman在推特上写了这么一句话:“我们48小时里看到的,只是最初的开端。GPT-6被设计成可以运行数小时、数天,最终是数周。‘会话’这个概念正在过时。”

这已经不是“问答模式”了,这是任务执行模式。AI从“工具”变成了“数字同事”。

Symphony架构:不是升级,是推倒重来

GPT-6背后最大的秘密,是一个叫 “Symphony”(交响乐) 的全新底层架构。

过去的多模态模型,本质上是“拼接”——在文本模型上嫁接图像理解模块、视频处理模块,就像让一个语言天才临时抱佛脚去学画画。

而Symphony从设计之初就把文本、图像、音频、视频全部纳入同一个向量空间,实现底层编码的统一。这不是工程优化,是架构革命

OpenAI总裁Greg Brockman在播客里亲口确认了这一点:“这不是增量改进,而是我们思考模型开发方式的重大改变。”

另一个重磅创新是双系统推理框架:System-1负责快速响应和内容生成,System-2负责逻辑校验和多步推导——完美呼应了认知科学中“快思考”与“慢思考”的经典理论。

这个设计的直接效果是什么?幻觉率被压到0.1%以下。过去大模型“一本正经胡说八道”的老毛病,在专业领域(数学、医疗、法律)被基本消灭了。

参数规模方面,GPT-6达到5至6万亿参数,采用MoE混合专家架构,实际激活参数仅占10%左右,推理效率极高。训练投入超过20亿美元,动用了约10万张H100 GPU,在德克萨斯州的Stargate数据中心完成。

官方数据显示,GPT-6的综合性能较GPT-5.4提升40%,在编程场景下代码生成准确率达到98%,44类职业测试中83%的任务表现达到或接近人类专家水平

价格腰斩:最狠的一刀砍在定价上

参数和性能的升级虽然炸裂,但真正让行业震动的,是定价。

GPT-6的API定价为:输入2.5美元/百万Token,输出12美元/百万Token

这是什么概念?对比一下:GPT-5 Reasoning的定价是15美元/百万输入Token。GPT-6性能暴增40%,价格反而只有前代的一半

真正意义上的“加量还降价”。

为什么敢这么定价?背后是OpenAI残酷的战略计算。过去一年,Anthropic的Claude系列在编程和智能体领域拿走了大量市场份额——Claude Code占据约54%的编程市场份额,年化收入超过25亿美元。DeepSeek则用超低价搅动了整个市场,V4据传是超低成本+长上下文+开源。

OpenAI不能再端着“高端定价”的架子了。

更值得玩味的是,就在GPT-6发布的同时,国内大模型的价格战已经杀红了眼——豆包主力模型输入价低至0.0008元/千Tokens,一本80万字的《三体》生成成本不到两块钱。虽然GPT-6的价格折算成人民币仍是国内模型的几十倍,但对于全球开发者来说,“性能翻倍、价格腰斩”的信号足够明确:OpenAI开始打价格战了。

超级智能体:ChatGPT+Codex+Atlas三合一

GPT-6不只是一个大模型,它是OpenAI整个产品生态的“超级引擎”。

根据官方披露的信息,GPT-6将把ChatGPT、编程工具Codex和浏览器工具Atlas彻底融合成一个统一的超级智能体。

这意味着什么?以前你用AI写代码,得在ChatGPT里问思路,切到Codex里写实现,再用浏览器查文档。现在,一个GPT-6搞定全部:你手绘一张原型图,它直接生成前端代码;你上传一段会议录音,它自动生成图文并茂的纪要;你一句话交代需求,它自主规划任务链、调用工具、输出成果,全程不用人插手。

这不只是一个模型,这是OpenAI一直念叨的那个桌面级“超级应用”。

更狠的是,OpenAI为了全力押注GPT-6,直接砍掉了Sora——那个一年前引爆全网的视频生成产品。Sora每年的运行成本高达50多亿美元,而自上线以来的总收入仅约210万美元。30天留存率仅为1%,60天留存趋近于零。

说砍就砍,连迪士尼10亿美元的合同都一起赔进去了。这种决绝,既是一种魄力,也是一种“被逼到墙角”的应激反应。

然而,发布日当天并不太平

GPT-6的发布本该是一场庆功宴。但4月14日这一天,OpenAI等来的并不全是鲜花和掌声。

就在同一天,媒体爆出OpenAI一周之内6位核心高管变动——首席运营官转岗,首席营销官和AGI开发负责人因健康原因离岗,“GPT-4o之母”乔安妮·江离开,三位负责星际之门数据中心项目的高管直接跳槽到Meta。

CEO奥特曼和CFO弗莱尔在上市节奏上公开撕破脸:奥特曼想四季度火速上市,弗莱尔公开泼冷水说条件根本不成熟,因为OpenAI在AI服务器上的花销过大,营收增长又缓慢。

与此同时,欧盟委员会宣布启动评估,研究是否将ChatGPT纳入《数字服务法》监管范围——一旦被认定为“超大型搜索引擎”,最高可处全球营业额6%的罚款。

而奥特曼本人的处境更荒诞:被著名调查记者发长文质疑人品,住所被扔燃烧瓶,半夜遭到枪击。

这颗“土豆”,是在OpenAI最混乱的时刻端上桌的。

从“专用智能”到“通用智能”的关键一跃

GPT-6的技术参数固然震撼,但它真正的意义在于定位的转变

OpenAI内部将产品部门正式更名为“AGI Deployment”(AGI部署部)。Greg Brockman更是直言,AGI已经实现了70%到80%,内部认为GPT-6会弥合大部分剩余差距。

这不是一句营销口号。从架构设计(Symphony原生多模态统一)到能力边界(200万Token+双系统推理+超级智能体),GPT-6确实在从“专用智能”向“通用智能”迈出实质性的一步。

更关键的是,GPT-6被定位为OpenAI未来所有模型的基础底座。从GPT-4开始,OpenAI花了两年多做渐进式更新(4o、4.5、5、5.2、5.4),但暗线上另一个团队在从零开始建新地基。现在,这个地基建好了。

竞争不会停,但格局已经变了

GPT-6发布后不到72小时,Anthropic快速跟进,发布Claude Opus 4.7,主打深度慢思考和长程推理。Google也在用Gemma 4系列开源抢占开发者生态。DeepSeek V4转向华为昇腾,走国产算力路线。xAI的Grok 5(参数规模6万亿)也在逼近。

大模型竞争已经从“代际差”进入“同场竞技”阶段。但GPT-6用“200万Token+性能暴增40%+价格腰斩”这套组合拳,再次把行业天花板抬高了。

接下来,压力来到了所有玩家这边。

写在最后

OpenAI耗时18个月、砸下20亿美元、动用10万张H100 GPU打造的这颗“土豆”,终于熟了。

它不是一次简单的版本迭代,而是从底层架构到产品形态的全面重构。200万Token上下文、Symphony原生多模态架构、双系统推理引擎、超级智能体整合,再加上“加量又降价”的激进定价——OpenAI用GPT-6向整个行业宣告:AGI不是遥远的幻想,它正在变成现实。

当然,这颗“土豆”能否真正救OpenAI于水火,还要看市场用脚投票的结果。IPO窗口倒计时、竞争对手环伺、内部人事地震——OpenAI正在经历成立以来最危险的时刻。

但至少在技术层面,GPT-6给全世界交出了一份足够有分量的答卷。

200万Token能装下150万字,这颗土豆里装的,是整个AI行业的未来。