强化AI编程能力迎战谷歌!OpenAI发布GPT-5.2-Codex,软件工程和网安一把抓
- 热点
- 2025-12-20
- 1
- 更新:2025-12-20 11:06:06
在GPT-5.2系列模型发布仅一周之际,OpenAI于美东时间18日周四再度发力,推出了基于GPT-5.2架构的全新Codex模型——GPT-5.2-Codex。该模型被宣称为目前最先进的智能编码代理,专注于专业软件工程与防御性网络安全领域,旨在进一步强化其对谷歌Gemini在AI编程赛道上的领先地位。
OpenAI指出,GPT-5.2-Codex在代码生成能力、网络安全防护水平以及长周期任务处理效率方面均取得显著进展。其在SWE-Bench Pro测试中的准确率提升至56.4%,在Terminal-Bench 2.0测试中达到64.0%,双双创下基准测试新高。模型已于发布当日向所有付费ChatGPT用户开放Codex界面使用,API用户的接入服务也在逐步推进中。
该公司特别强调了新模型在网络安全领域的性能突破。首席执行官Sam Altman提及,本月初已有安全研究人员借助上一代模型GPT-5.1-Codex-Max,成功发现并通报了React框架中一个可能导致源代码泄露的安全隐患。OpenAI表示,虽然新模型尚未达到“高”级别网络安全能力标准,但公司已在为未来模型突破这一门槛进行技术储备。
目前,GPT-5.2-Codex已全面面向付费ChatGPT用户推出。OpenAI计划在未来几周内逐步为API用户提供安全稳定的访问支持。公司将通过分阶段部署、强化防护机制以及与安全社区紧密协作的方式,在提升防御效能的同时,尽可能降低技术滥用风险。
此次发布延续了OpenAI在AI编程领域的积极布局。早在一周前推出GPT-5.2时,OpenAI就曾引用多家编码初创公司的反馈,称其具备“顶尖的智能体编码性能”,并透露GPT-5.2的Thinking版本在SWE编码测试中创下历史最高分,成为首个达到或超越人类专家水平的模型。这一系列动作被视为对谷歌Gemini 3在编码与推理方面获得市场好评的正面回应。
**编码性能持续优化,面向复杂实战环境**
GPT-5.2-Codex作为GPT-5.2的专项优化版本,针对Codex的智能编码任务进行了深度强化。OpenAI介绍,该模型主要在三大方面实现提升:通过上下文压缩技术增强长周期工作稳定性,在代码重构与迁移等项目级任务中表现更为出色,并对Windows环境下的运行性能进行了针对性改进。
基准测试数据显示,GPT-5.2-Codex在SWE-Bench Pro中的准确率优于GPT-5.2的55.6%和GPT-5.1的50.8%;在Terminal-Bench 2.0中也显著高于前两代模型。其中,SWE-Bench Pro要求模型在真实代码库中生成修补程序以解决具体工程问题,Terminal-Bench 2.0则评估AI代理在终端环境中执行编译、训练、部署等实际任务的能力。
新模型在长上下文理解、工具调用可靠性、输出真实性以及原生压缩等方面均有提升,使其成为长时间编码协作中更为稳定的伙伴,同时在推理过程中保持较高的token效率。增强的视觉解析能力让GPT-5.2-Codex能更精准地理解截图、技术图表与用户界面,从而加速将设计稿转化为可运行原型。
OpenAI表示,凭借这些升级,Codex能够在大型代码库中持续开展工作,保持完整的上下文记忆,可靠地执行大规模重构、代码迁移与功能开发等复杂任务,即使中途计划调整或尝试失败,也不会丢失进度线索。
**网络安全能力显著提升,瞄准更高等级门槛**
网络安全是GPT-5.2-Codex重点突破的另一领域。OpenAI在核心安全评估中发现,自GPT-5-Codex起模型能力出现跨越式增长,GPT-5.1-Codex-Max实现第二次跃升,而GPT-5.2-Codex则完成了第三次显著进步。
在专业夺旗赛评估中,GPT-5.2-Codex展现出解决需高级网络安全技能的多步骤真实挑战的能力。按照OpenAI的预备框架评定,该模型虽未达到“高”级别网络安全能力,但公司预期未来AI模型将沿此轨迹持续发展,并已按照每个新模型都可能触及“高”级别标准进行规划与评估。
一个实际案例体现了新模型的防御潜力。12月11日,React团队公布了三个影响使用React服务器组件构建的应用的安全漏洞。Stripe旗下Privy公司的首席安全工程师Andrew MacPherson在使用GPT-5.1-Codex-Max配合Codex CLI研究另一个名为React2Shell的高危漏洞时,通过引导Codex执行标准防御性工作流程,意外发现了这些此前未知的安全问题,并及时向React团队进行了负责任的披露。
Altman在社交媒体上表示:“上周,一位使用我们上一代Codex模型的安全研究人员发现并报告了React中可能导致源代码暴露的漏洞。我相信这类模型将对网络安全产生净正向影响,但随着它们不断进化,我们已进入‘实际影响阶段’。”
**启动可信访问计划,面向安全专业人员开放权限**
为平衡能力提升与风险控制,OpenAI在模型层面和产品层面均增设了防护措施,包括针对有害任务与提示注入的专项安全训练、智能体沙箱环境以及可配置的网络访问策略。同时,公司正在试行一项仅限受邀参与的可信访问计划。
该计划初期仅对通过审核的安全专业人士及具备明确网络安全用途的组织开放。获准参与者将有权使用OpenAI最先进的模型进行防御性工作,开展诸如漏洞研究、授权红队测试等合法的双重用途任务,同时避免安全团队在模拟攻击行为、分析恶意软件或压力测试关键基础设施时可能受到的限制。
Altman在X平台上写道:“我们正在启动一项用于防御性网络安全工作的可信访问计划探索。”他在另一条发文中还为Codex团队招募人才:“Codex已变得非常强大,并将持续快速进化。如果你希望帮助它在明年提升百倍,团队正在招聘。这将是一场充满挑战的冒险,成功概率很高。”
有话要说...