OpenAI推出GPT-5.4-Cyber安全检测模型,聚焦代码漏洞识别与修复
SmartHey4月15日消息,OpenAI于本周二正式启动GPT-5.4-Cyber模型的首批部署。该模型专为软件安全分析设计,可高效识别源代码、配置文件及系统架构中的潜在缺陷与安全隐患,助力企业快速响应并修复风险。
目前,该模型正通过OpenAI‘网络安全受信访问’(Trusted Access for Cyber)计划向精选合作伙伴开放。该项目于今年2月启动,旨在为经严格审核的企业客户及资深网络安全专家提供早期体验其前沿AI能力的机会。
OpenAI表示,初期将面向数百名具备实战经验的安全研究员和DevSecOps团队开放测试权限,并计划在未来数周内逐步扩展至数千名认证用户。此举也凸显了OpenAI与Anthropic在高能力安全专用AI领域的加速竞逐——双方正积极构建面向企业级安全场景的差异化技术壁垒。
值得注意的是,随着AI在代码审计、模糊测试和漏洞模式识别等任务中表现持续突破,其双刃剑属性日益凸显:一方面显著提升防御效率,另一方面也引发对恶意行为者滥用该技术发起精准攻击的深层关切。已有公开案例显示,生成式AI正被用于自动化漏洞挖掘、钓鱼页面生成及攻击链编排。
就在上周,Anthropic发布专注漏洞利用研究的AI模型Mythos,强调其在操作系统内核与主流浏览器引擎层面的深度分析能力。为降低滥用风险,Mythos仅授权亚马逊、苹果、微软等头部科技企业及国家级网络安全机构使用,确保技术成果优先服务于系统加固与主动防御体系建设。
