村瓜首页 村瓜 · 文章详情
博客 日报

刚刚,GPT-5.4核心内幕炸裂剧透!或拥有永久记忆,极限推理狂飙

          新智元报道  编辑:Aeneas【新智元导读】GPT-5.4,马上就要来了!

        目前已经开启测试,一次能写6000行代码。外媒曝出它有极限推理模型,甚至还传闻拥有永久记忆。

        如果你觉得最近AI圈有点安静,太不刺激,那可能只是暴风雨前的宁静。

        据多方消息,GPT-5.4,已经箭在弦上了!LMArena上,已经出现了GPT-5.4的身影。

        就在刚刚,外媒The Information,剧透了不少关于GPT-5.4的核心内幕。

        消息足够炸裂:它有更长的上下文,更极限的推理模型,甚至,可能出现永久记忆!

        如果如传闻所言,这些都是真的,那这一代模型很可能不是简单的升级,而是一次能力形态的巨大跃迁。

        GPT-5.4提前测试,代码炸裂曝光最近,GPT-5.4简直在到处泄露。

        从Codex错误日志、GitHub PR,到员工误发截图,短短几天时间,GPT-5.4已经被「曝光」了至少三次。

        而且,这还都是OpenAI自己意外泄露出来的。最早,是开发者Corey Noles在使用OpenAI Codex时触发了一次网络安全限制,系统返回的错误日志里出现了一串非常长的模型名称:gpt-5.4-ab-arm1-1020-1p-codexswic-ev3这串字符最关键的,就是前面三位——gpt-5.4。

        总之,这串字符串可以认为是OpenAI的内部部署ID,翻译过来就是「一个真实部署、正在测试中的GPT-5.4实验版本。」然后,在OpenAI官方Codex仓库里,出现了两个Pull Request:一个PR写着:minimum model version = (5, 4)另一个PR更直接:toggle Fast mode for GPT-5.4看起来,OpenAI给GPT-5.4加了一个「Fast Mode」开关。

        几小时后,两个PR就被force push删除了。

        接下来,更戏剧性的一幕出现:OpenAI Codex团队的一名员工Tibo 在社交平台上发布了一张截图。

        图中,模型选择器里赫然写着GPT-5.4。没多久,这条帖子就被删掉了。

        随后,又有开发者报告,在Codex错误信息中看到类似的模型字符串。

        这更加说明,GPT-5.4已经部署在内部服务器,正在进行真实的A/B测试了。

        一次提示,生成6000行代码?而且,目前已经有开发者报告了一个明显变化——速度!

        一些测试者表示,模型的推理明显更快,代码生成更长,甚至一次提示可生成 6000+行代码!

        这在以前几乎不可能。一些人还发现一个新特征——Fast Mode。

        这可能意味着,OpenAI正在尝试新的推理架构,例如多级latency pipeline,或不同速度档位模型。

        另外,新模型界面特征也被发现了:部分用户表示,如果在推理摘要(Chain-of-Thought summary)旁边看到点赞或点踩按钮,可能意味着账户已经被分配到GPT-5.4的测试模型。

        极限推理模式,性能拉爆The Information的爆料,也跟以上信息完全对上了。

        这次爆料中,最亮的就是这个极限推理模式——Extreme Reasoning Mode了。

        传统模型的思考时间都很有限,但这个极限推理模式,直接让模型的性能拉到爆,在遇到困难问题时,能花费更多时间,调用更多计算资源,进行更深层的推理。

        有趣的是,根据调查,其实很多普通ChatGPT用户对于推理功能并不太热衷。

        而且从商业应用的角度来说,这个功能也不很适用,因为企业要的是AI尽快给一个答案。

        因此,OpenAI依然如此重视推理能力,倒是显得动机纯粹了不少。

        不过,这个消息,对于科研领域和部分企业客户,倒是重大利好。

        显然,在科学研究领域,许多用户很愿意让一个模型在有价值的研究问题上运行数小时,甚至数天。

        同时,部分企业也会需要用到GPT-5.4更强的推理能力和长周期任务表现,来构建能够把更复杂业务流程自动化的AI智能体。

        根据各方爆料,这个极限推理模式将会很疯狂,这也就把大家的期待拉满了。

        上下文直接翻倍,达到1M tokens对于GPT-5.4来说,这是另一个十分硬核的升级——

        上下文窗口从40万tokens,升到了一百万tokens。

        这样一来,GPT-5.4的上下文窗口将超过当前GPT-5.2的两倍。

        (当然,也有一些OpenAI模型支持100万token,比如GPT-4.1,但5.2并不支持)这下,GPT-5.4可以直接塞进去几十万字的文档,分析一整本书,或者长长的代码库和数据了。

        这也让终于让这个模型在长上下文能力上,重新追平了谷歌的Gemini和Anthropic的Claude。

        毕竟,其他家早就达到了100万token的上下文窗口,现在GPT-5.4终于补齐了这个短板。

        而坊间爆料比The Information更夸张:上下文达到了2百万tokens!

        GPT-5.4,开始擅长「长任务」爆料中的另外一个点,就是GPT-5.4在需要持续数小时的任务上表现也更好。

        也就是说,它在多个步骤中更能记住用户请求的细节,以及自己被允许或不允许执行的内容,同时也更不容易出错。

        显然,这对于OpenAI的Codex编程工具会极有帮助,因为Codex正是使用AI来自动化复杂的长时间任务。

        另外,这种长时间任务能力,对于AI Agent来说也非常关键。

        Agent可以自己读取需求、查资料、写代码、修bug,并不是每一步都需要人重新提示了。

        GPT-5.4,可能拥有永久记忆?接下来,最疯狂的传闻来了——

        GPT 5.4,可能拥有永久记忆!一位工程师在X上给出这个爆料后,立刻炸翻了AI社区,硅谷投资大佬、YC创始人Garry Tan也火速赶来转发。

        在这篇帖子中,爆料人是这样介绍GPT-5.4的「持久状态」的。

        Jeff Dean在参加latentspacepod播客时就提到了这一点,可以看出,如今各大AI实验室都在思考这个方向。

        有人猜测,OpenAI内部很可能已经发现了,如何大规模地有效结合状态空间模型(SSM)和Transformer。

        其中的关键,就是SSM的设计本身就是在每一步计算中持续传递隐藏状态(hidden state),而且它的计算复杂度是线性增长,不像Transformer那样随着上下文长度呈二次增长。

        这也就和某个传闻相呼应了:据说,GPT-5.4可能拥有200万token的上下文窗口。

        所谓持久化状态,本质上意味着AI模型会从电影 《记忆碎片》Guy Pearce的角色一夜之间变成《雨人》里Dustin Hoffman的角色,前者只能依赖短期记忆,而后者拥有稳定而持久的记忆。

        换句话说,这将赋予AI模型真正的长期记忆能力。如果真的能实现,这将会是一次非常巨大的技术突破!

        压力山大,OpenAI被迫「月更」显然,GPT-5之后,OpenAI做了一个明显改变,模型开始高频月更。

        今年以来,我们已经迎来了GPT-5.1,GPT-5.2,马上5.4也要来了,更新节奏甚至接近了一个月一次。

        显然,OpenAI也是被对手逼到墙角了。目前,ChatGPT的周活跃用户已达9.1亿,虽然数字看似很惊人,但依然没能达到OpenAI 10亿WAU(活跃用户)的目标。

        而谷歌和Anthropic这些竞争对手都在步步紧逼,在长上下文、Agent、推理能力上都在持续加码。

        如果GPT-5.4真的拥有1百万长上下文、极限推理、持久状态,那AI形态很可能会变成持续工作的智能体。

        而且,如果GPT-5.4真的能开始「记住事情」,这很可能就是大模型历史上的一个关键节点。

        奇点已至,我们正在狂飙加速。你,准备好了吗?参考资料:https://x.com/marmaduke091/status/2028604854143176958https://www.theneurondaily.com/p/openai-leaked-gpt-5-4-three-timeshttps://x.com/daniel_mac8/status/2028849150368862416https://www.theinformation.com/newsletters/ai-agenda/openais-next-ai-model-will-extreme-reasoning?rc=bfliih秒追ASI⭐点赞、转发、在看一键三连⭐点亮星标,锁定新智元极速推送!
原文
📌 本文为临时缓存页面,有效期3天,过期后将自动清理。