OpenAI 增强防御模型以应对网络威胁

来源:hackernews 阅读量:0 发布时间:2025-12-15 02:35:01 我要分享
HackerNews 编译,转载请注明出处: OpenAI周三透露,模型性能的激增已重塑了公司的内部规划。 根据一份新报告,通过CTF进行的能力评估显示,其性能从2025年8月GPT-5的27%提升至2025年11月GPT-5.1-Codex-Max的76%。 OpenAI警告称,一些即将推出的系统可能达到其“准备框架”中的“高”能力水平,这意味着它们最终可能协助完成从复杂入侵操作到零日漏洞利用开发等任务。 ThreatAware联合创始人兼首席执行官乔恩·阿博特表示,这一警告突显了关注基础防护的必要性。 “OpenAI警告新模型带来‘高’网络安全风险,这正是为什么确保安全基础绝对关键。AI可能正在加速攻击步伐,但我们最好的防御方式仍然是首先夯实基础。” 该公司还表示,正在通过开发多层次防护措施来应对这种可能性,旨在将先进能力引导至防御性结果。OpenAI补充说,其主要目标是加强网络安全团队的地位,这些团队目前仍面临人手不足和资源匮乏的问题。 加强行业整体理解 为管理网络工作流程中固有的双重用途风险,该公司概述了一个基于多个组件的深度防御策略: 访问控制、基础设施加固、出口控制和监控 引导模型避开有害请求,同时保持对教育和防御的实用性培训 能够阻止或重定向不安全活动的全系统检测工具 由外部专家进行的端到端红队测试 “这些防护措施旨在随着威胁形势的发展而演变,”该公司表示。 阿博特指出,能力的提升使得长期存在的威胁更加危险。 “传统威胁与AI实现的规模和精度相结合,形成了一种特别有害的组合,”他解释道。 “随着模型能够开发可用的零日远程漏洞利用或协助复杂、隐蔽的入侵,犯罪分子的入门门槛已大幅降低。” OpenAI表示,正在与全球专家协调,以改进防御性AI的实际应用,并正在为合格用户准备可信访问计划。 另一项名为“Aardvark”的计划已进入封闭测试阶段。这一智能安全研究代理可以扫描代码库、识别漏洞并提出修复方案,并在开源项目中发现了新的CVE漏洞。 OpenAI表示,还将启动一个“前沿风险委员会”,就负责任的能力使用提供建议,并通过“前沿模型论坛”进一步合作,以完善共享威胁模型并改进整个生态系统的缓解策略。 消息来源:infosecurity-magazine; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
分享到:
热点资讯