OpenAI 发布 GPT-5.3-Codex-Spark:专为实时编码优化的超高速模型,延迟降低80%
OpenAI 于 2026 年 2 月 12 日推出 GPT-5.3-Codex-Spark,这是一款专为 Codex 实时编码设计的超高速模型,作为研究预览向 ChatGPT Pro 用户开放。该模型在 SWE-Bench Pro 和 Terminal-Bench 2.0 基准测试中表现强劲,同时通过引入持久 WebSocket 连接和优化响应 API,将客户端/服务器往返开销降低 80%,首令牌时间减少 50%。基于 Cerebras Wafer Scale Engine 3 硬件,Codex-Spark 支持 128k 上下文窗口,旨在为开发者提供低延迟交互体验,标志着 Codex 向长时推理与实时协作双模式演进的关键一步。
OpenAI 发布 GPT-5.3-Codex-Spark:专为实时编码优化的超高速模型
据 OpenAI 官方披露,2026 年 2 月 12 日,公司推出了 GPT-5.3-Codex-Spark,这是一款专为 Codex 实时编码设计的超高速模型,目前作为研究预览向 ChatGPT Pro 用户开放。开发者可通过 Codex 应用、CLI 和 VS Code 扩展的最新版本体验,旨在早期测试中收集反馈,同时 OpenAI 正与 Cerebras 合作提升数据中心容量并优化端到端用户体验。
模型核心特性与性能优势
Codex-Spark 针对交互式工作流优化,在延迟和智能之间取得平衡。它支持 128k 上下文窗口,目前仅限文本输入。在 SWE-Bench Pro 和 Terminal-Bench 2.0 这两个评估代理软件工程能力的基准测试中,GPT-5.3-Codex-Spark 展现出强劲性能,完成任务所需时间仅为 GPT-5.3-Codex 的一小部分。模型默认工作风格轻量,进行最小化、针对性编辑,除非用户要求,否则不自动运行测试。
端到端延迟优化与硬件支持
在训练过程中,OpenAI 意识到模型速度仅是实时协作的一部分,因此实施了全请求-响应管道的延迟改进。通过引入持久 WebSocket 连接和优化响应 API,将每客户端/服务器往返开销降低 80%,每令牌开销减少 30%,首令牌时间缩短 50%。WebSocket 路径默认用于 Codex-Spark,并将很快成为所有模型的默认设置。
Codex-Spark 运行在 Cerebras Wafer Scale Engine 3 上,这是一个专为高速推理设计的 AI 加速器,为 Codex 提供低延迟服务层。OpenAI 与 Cerebras 合作,将此低延迟路径集成到生产服务栈中,确保与 Codex 无缝协作,并为未来模型支持奠定基础。GPU 仍作为训练和推理管道的基础,而 Cerebras 在需要极低延迟的工作流中表现优异,两者可结合以实现最佳性能。
安全评估与未来展望
Codex-Spark 包含与主线模型相同的安全训练,包括网络相关训练。经标准部署流程评估,它未达到网络安全或生物学高能力预备框架阈值。作为超高速模型系列的首款,Codex-Spark 目前为文本-only,未来可能引入更大模型、更长上下文长度和多模态输入。
OpenAI 表示,Codex-Spark 是 Codex 向双互补模式演进的第一步:长时推理与执行,以及实时协作快速迭代。随着模型能力提升,交互速度成为瓶颈,超高速推理将扩展从想法到工作软件的转化可能性。
相关文章
阿里云AI商业化收入占比突破30%:年化358亿元,预计一年内超50%
2026年5月13日,阿里巴巴在2026财年Q4财报电话会上披露,阿里云AI相关产品收入占外部商业化收入比例首次突破30%,年化收入达358亿元。高管预计未来一年该占比将突破50%,AI成为阿里云核心增长引擎。
2026年5月13日金力永磁具身机器人电机转子研发获小批量交付,Q1收入同比增81.84%
金力永磁正配合世界知名科技公司进行具身机器人电机转子研发,已有小批量产品交付。2026年第一季度,公司机器人及工业伺服电机领域收入1.18亿元,同比增长81.84%,客户覆盖全球多家工业机器人及伺服电机厂商。公司通过直接投资或产业基金布局产业链关键环节,加速商业化落地。
2026年5月13日2026年1-4月AI岗位激增8.7倍:脉脉报告揭示招聘市场新趋势
脉脉《2026春招职场洞察报告》显示,2026年1-4月招聘市场回暖,新经济行业新发岗位同比增长22.6%,AI领域岗位量同比增长8.7倍,具身智能赛道更是暴增15倍。北京和杭州的新发AI岗位渗透率分别达30.17%和28.54%,即每10个新岗位中约有3个为AI岗。数据揭示了AI人才需求的爆炸性增长,为企业AI化战略提供了关键参考。
2026年5月13日