Anthropic 最新的模型擅长发现安全漏洞——但也带来了新的网络安全风险

前沿人工智能模型不再仅仅帮助工程师更快地编写代码或自动化日常任务。它们的识别错误的能力也在不断增强。

推荐视频


Anthropic表示,其最新模型Claude Opus 4.6在发现支撑重大网络攻击的软件弱点方面表现出色。根据该公司前沿红队的报告,在测试过程中,Opus 4.6识别出超过500个此前未知的零日漏洞——这些漏洞对软件的开发者或修复者来说是未知的——涵盖了开源软件库中的多个漏洞。值得注意的是,虽然研究人员为模型设定了目标——寻找所选软件中的安全漏洞,但模型自主确定了完成任务的方法,Anthropic前沿红队负责人Logan Graham表示。

Anthropic表示,“结果显示,语言模型可以在现有发现工具的基础上增加真正的价值”,但也承认这些能力本质上具有“双重用途”。

帮助公司发现和修复安全漏洞的能力,同样可以被攻击者利用,用于在防御者发现之前发现并利用漏洞。一个能够自主识别广泛使用软件中的零日漏洞的AI模型,可能会加速网络安全军备竞赛的双方——最终可能让行动最快的一方占据优势。

Graham告诉Axios,公司将网络安全视为攻防之间的竞争,并希望确保防御方能优先获得这些工具。

为了管理部分风险,Anthropic正在部署新的检测系统,监控Claude在生成响应时的内部活动,利用公司称之为“探针”的工具实时标记潜在的滥用行为。公司还在扩大执法能力,包括阻止被识别为恶意的流量。Anthropic承认,这种方法会给合法的安全研究和防御工作带来摩擦,但已承诺与安全社区合作,共同应对这些挑战。公司表示,这些安全措施是“在快速检测和应对滥用方面迈出的重要一步”,但相关工作仍在进行中。

相比之下,OpenAI对其新发布的编码模型GPT-5.3-Codex采取了更为谨慎的态度。该公司强调,虽然模型在编码性能上有所提升,但这些提升也带来了严重的网络安全风险。OpenAI首席执行官Sam Altman在X平台的一篇帖子中表示,GPT-5.3-Codex是首个在公司内部准备框架下被评为“高”网络安全风险的模型。

因此,OpenAI在推出GPT-5.3-Codex时采取了更严格的控制措施。虽然该模型对付费的ChatGPT用户开放,用于日常开发任务,但公司推迟了完整API的访问,并限制了可能实现大规模自动化的高风险用例。更敏感的应用也被置于额外的安全措施之下,包括为经过验证的安全专业人士提供的可信访问计划。OpenAI在发布的博客中表示,目前尚无“确凿证据”表明该模型能完全自动化网络攻击,但公司采取了预防措施,部署了其迄今为止最全面的网络安全安全堆栈,包括增强的监控、安全培训和由威胁情报指导的执法机制。

GPT8.38%
CODEX6.87%
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
  • 热门 Gate Fun

    查看更多
  • 市值:$2606.61持有人数:2
    0.85%
  • 市值:$0.1持有人数:1
    0.00%
  • 市值:$2474.68持有人数:2
    0.00%
  • 市值:$2448.27持有人数:1
    0.00%
  • 市值:$2483.62持有人数:2
    0.13%
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)