简而言之,OpenAI 发出警告称其下一代 AI 模型带来"高"网络安全风险,并可能创建零日漏洞利用,GPT-5.1-Codex-Max 已实现简而言之,OpenAI 发出警告称其下一代 AI 模型带来"高"网络安全风险,并可能创建零日漏洞利用,GPT-5.1-Codex-Max 已实现

OpenAI警告下一代人工智能模型构成高网络安全风险

2025/12/11 21:18

摘要

  • OpenAI 发出警告,称其下一代 AI 模型带来"高"网络安全风险,并可能创建零日漏洞利用工具
  • GPT-5.1-Codex-Max 在 2025 年 11 月的网络安全测试中达到 76%,比 2024 年 8 月 GPT-5 的 27% 大幅提升
  • 该公司正推出 Aardvark,一个专注安全的 AI 代理,可识别代码漏洞并提出修复建议
  • OpenAI 计划创建一个由网络安全专家组成的前沿风险委员会,并提供分级访问增强安全功能的服务
  • 谷歌和 Anthropic 近几个月也加强了其 AI 系统抵御网络安全威胁的能力

OpenAI 于 12 月 10 日发布警告,称其即将推出的 AI 模型可能带来严重的网络安全风险。这家 ChatGPT 背后的公司表示,这些先进模型可能会构建针对防御严密系统的有效零日远程漏洞利用工具。

该 AI 公司还指出,这些模型可能协助复杂的企业或工业入侵操作,导致现实世界的后果。OpenAI 在一篇博客文章中分享了这些信息,文章讨论了其技术不断增长的能力。

这一警告反映了整个 AI 行业对日益强大的模型可能被滥用的担忧。几家主要科技公司已采取行动,保护其 AI 系统免受类似威胁。

谷歌本周宣布更新 Chrome 浏览器安全性,以阻止针对 AI 代理的间接提示注入攻击。这些变更在 Chrome 中 Gemini 代理功能更广泛推出之前实施。

Anthropic 在 2025 年 11 月透露,可能与中国国家支持的组织有关联的威胁行为者,曾利用其 Claude Code 工具进行 AI 驱动的间谍活动。该公司在造成损害前阻止了这一行动。

AI 网络安全技能快速进步

OpenAI 分享的数据显示 AI 网络安全能力的快速进步。该公司的 GPT-5.1-Codex-Max 模型在 2025 年 11 月的夺旗挑战中达到了 76%。

这比 2024 年 8 月 GPT-5 取得的 27% 成绩有了重大飞跃。夺旗挑战衡量系统定位和利用安全弱点的能力。

短短几个月内的这一进步表明 AI 模型获取高级网络安全能力的速度有多快。这些技能可用于防御和进攻目的。

新安全工具和保护措施

OpenAI 表示正在构建更强大的模型用于防御性网络安全工作。该公司正在开发工具,帮助安全团队更轻松地审计代码和修复漏洞。

这家由微软支持的公司正使用多层安全措施,包括访问控制、基础设施加固、出口控制和监控系统。OpenAI 正在训练其 AI 模型拒绝有害请求,同时保持对教育和防御工作的有用性。

该公司正在扩大对所有使用前沿模型的产品的监控,以捕捉潜在的恶意网络活动。OpenAI 正与专家红队团队合作,测试和改进其安全系统。

Aardvark 工具和咨询委员会

OpenAI 推出了 Aardvark,一个作为安全研究员工作的 AI 代理。该工具正处于私人测试阶段,可以扫描代码中的漏洞并推荐补丁。

维护人员可以快速实施 Aardvark 提出的修复方案。OpenAI 计划向选定的非商业开源代码库免费提供 Aardvark。

该公司将推出一个项目,为合格的网络防御用户和客户提供分级访问增强功能的服务。OpenAI 正在组建前沿风险委员会,将外部网络防御者和安全专家与其内部团队合作。

该委员会将首先关注网络安全,然后扩展到其他前沿能力领域。OpenAI 将很快提供有关面向从事网络防御的用户和开发者的可信访问计划的详细信息。

文章《OpenAI 警告下一代 AI 模型带来高网络安全风险》首次发表于 Blockonomi。

免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 service@support.mexc.com 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。