OpenAI似乎在最新模型发布中违反了加利福尼亚州的人工智能安全法,监管机构声称

据人工智能监管组织的指控,OpenAI在发布其最新的编码模型时可能违反了加利福尼亚州新的AI安全法。

如果被证实违规,可能会使该公司面临数百万美元的罚款,此案也可能成为新法律条款的先例性首次审判。

推荐视频


此次争议集中在GPT-5.3-Codex上,OpenAI于上周发布的最新编码模型。该模型是OpenAI为重新夺回其在AI驱动编码领域领先地位而努力的一部分,根据OpenAI公布的基准数据,显示其在编码任务上的表现明显优于早期版本的模型,无论是OpenAI自己还是竞争对手如Anthropic。然而,该模型也引发了前所未有的网络安全担忧。

OpenAI首席执行官Sam Altman表示,该模型是首个在公司内部风险分类体系“准备框架”中被归入“高”风险类别的模型。该体系是OpenAI用于模型发布的内部风险评估系统。这意味着OpenAI基本上将该模型归类为在编码方面具有足够能力,可能会带来重大网络危害,尤其是在自动化或大规模使用时。

人工智能监管组织The Midas Project声称,OpenAI在推出这款高风险模型时未能遵守其自身的安全承诺——这些承诺在加利福尼亚法律下现已具有法律约束力。

自一月生效的加州SB 53法案要求主要的AI公司公布并遵守其安全框架,详细说明他们将如何防止灾难性风险——定义为导致超过50人死亡或造成10亿美元以上财产损失的事件——以及禁止这些公司对合规性发表误导性声明。

OpenAI的安全框架要求对具有高网络安全风险的模型采取特殊保护措施,以防止AI失控,做出欺骗行为、破坏安全研究或隐藏其真实能力等行为。然而,该公司在推出GPT-5.3-Codex之前未实施这些保护措施。

OpenAI表示,这是因为框架中的措辞“模糊”。在随模型发布的安全报告中,OpenAI称,只有在“与”长程自主性——即在较长时间内自主运行的能力——同时出现高网络风险时,才需要采取保护措施。由于公司认为GPT-5.3-Codex缺乏这种自主性,因此认为不需要采取保护措施。

OpenAI的一位发言人告诉《财富》公司“对我们遵守前沿安全法律,包括SB53,充满信心。”

“GPT-5.3-Codex已完成我们的全面测试和治理流程,详见公开发布的系统说明书,并且根据代理评估和内部专家判断(包括我们的安全咨询小组)确认,未展现出长程自主能力。”发言人表示。他们还表示,公司打算澄清当前准备框架中的措辞,以更好地传达公司最初的意图,而不是改变任何内部做法。

然而,一些安全研究人员对此解释提出异议。Encode的副总裁兼总法律顾问Nathan Calvin在X上发帖称:“他们不是承认在发布前没有遵循或更新计划,而是说标准模糊。阅读相关文件后……我觉得并不模糊。”

The Midas Project还声称,OpenAI无法确凿证明该模型缺乏所需的自主能力,因为公司之前的较旧模型已经在自主任务完成的全球基准测试中名列前茅。该组织认为,即使规则不明确,OpenAI也应在发布模型前予以澄清。

Midas Project的创始人Tyler Johnston称,这一潜在违规“尤其令人尴尬,因为SB 53的门槛非常低:基本上只需采用一份自愿的安全计划,并诚实沟通,必要时进行调整,而不应违反或虚假陈述。”

如果调查启动且指控属实,SB 53允许对违规行为处以巨额罚款,严重和持续违规可能高达数百万美元。加州总检察长办公室的一位代表告诉《财富》,该部门“致力于执行我州的法律,包括那些旨在增加新兴AI领域透明度和安全性的法律。”但他们表示,无法对潜在或正在进行的调查发表评论,甚至无法确认或否认。

加入我们,参加2026年5月19日至20日在亚特兰大的《财富》职场创新峰会。新时代的职场创新已然到来——旧的规则正在被重写。在这个独家且充满活力的盛会中,全球最具创新精神的领导者将聚集一堂,探讨AI、人类与战略如何融合,再次重新定义未来的工作。立即注册。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)