据行业内部消息,OpenAI正在紧锣密鼓地筹备一款名为GPT-5.4的新型大模型,其上下文窗口容量将实现质的飞跃。这款新模型预计将支持超过100万tokens的上下文处理,相比前代GPT-5.2的40万tokens容量,提升幅度显著。这一升级意味着GPT-5.4能够在单次请求中容纳并处理更大量的文本和数据,从而满足更复杂、更广泛的应用需求。
值得注意的是,OpenAI并非首次尝试如此庞大的上下文窗口。在其早期模型中,例如GPT-4.1,也曾提供过100万tokens的上下文处理能力。然而,在后续的GPT-5.2版本中,这一功能被取消。如今,GPT-5.4的回归无疑将重新点燃市场对于大模型上下文处理能力的关注,同时也使OpenAI在上下文处理领域与谷歌和Anthropic等竞争对手保持同步,后两者目前已经支持类似规模的上下文窗口。
在性能方面,GPT-5.4展现出了显著的优势。特别是在处理需要长时间运行的复杂任务时,该模型表现出更为出色的稳定性和准确性。例如,在持续数小时的工作流程中,GPT-5.4能够更稳定地保留用户请求和运行参数,同时降低错误率。这一特性对于需要高度精确和稳定性的应用场景,如OpenAI Codex等编程辅助工具,将具有极大的实用价值,有望进一步提升AI在复杂编程任务中的自动化水平。
除了上下文窗口的扩大和性能的提升,GPT-5.4还引入了一项创新功能——“极限推理模式”。在这一模式下,模型能够针对复杂问题分配更多的时间和计算资源,从而显著提升其推理能力。这一功能的加入,使得GPT-5.4在处理需要深度思考和复杂推理的任务时,能够展现出更为强大的实力,进一步拓宽了大模型的应用边界。










