A OpenAI parece ter violado a lei de segurança de IA da Califórnia com o lançamento do seu último modelo, afirma o watchdog

A OpenAI pode ter violado a nova lei de segurança de IA da Califórnia com o lançamento do seu mais recente modelo de codificação, de acordo com alegações de um grupo de vigilância de IA.

Uma violação potencialmente exporia a empresa a multas de milhões de dólares e o caso pode se tornar um precedente que testará as disposições da nova lei.

Vídeo Recomendado


A controvérsia centra-se no GPT-5.3-Codex, o mais recente modelo de codificação da OpenAI, lançado na semana passada. O modelo faz parte de um esforço da OpenAI para recuperar a sua liderança em codificação alimentada por IA e, de acordo com dados de benchmark divulgados pela OpenAI, apresenta desempenho significativamente superior em tarefas de codificação do que versões anteriores do modelo, tanto da OpenAI quanto de concorrentes como a Anthropic. No entanto, o modelo também levantou preocupações de cibersegurança sem precedentes.

O CEO Sam Altman afirmou que o modelo foi o primeiro a atingir a categoria de risco “alto” para cibersegurança no quadro de preparação da empresa, um sistema interno de classificação de risco que a OpenAI usa para lançamentos de modelos. Isso significa que a OpenAI está basicamente classificando o modelo como suficientemente capaz em codificação para potencialmente facilitar danos cibernéticos significativos, especialmente se automatizado ou utilizado em grande escala.

O grupo de vigilância de IA, The Midas Project, afirma que a OpenAI não cumpriu seus próprios compromissos de segurança — que agora são legalmente vinculativos sob a lei da Califórnia — com o lançamento do novo modelo de alto risco.

A SB 53 da Califórnia, que entrou em vigor em janeiro, exige que grandes empresas de IA publiquem e sigam seus próprios quadros de segurança detalhando como irão prevenir riscos catastróficos — definidos como incidentes que causem mais de 50 mortes ou mais de 1 bilhão de dólares em danos materiais — de seus modelos. Ela também proíbe essas empresas de fazer declarações enganosas sobre conformidade.

O quadro de segurança da OpenAI exige salvaguardas especiais para modelos com alto risco de cibersegurança, projetados para impedir que a IA se torne descontrolada e realize ações como agir de forma enganosa, sabotar pesquisas de segurança ou esconder suas verdadeiras capacidades. No entanto, a empresa não implementou essas salvaguardas antes do lançamento do GPT-5.3-Codex.

A OpenAI afirma que isso ocorre porque a redação do quadro é “ambígua”. Em um relatório de segurança que acompanha o modelo, a OpenAI disse que as salvaguardas só são necessárias quando o alto risco cibernético ocorre “em conjunto com” autonomia de longo alcance — a capacidade de operar de forma independente por períodos prolongados. Como a empresa acredita que o GPT-5.3-Codex não possui essa autonomia, ela afirma que as salvaguardas não eram necessárias.

Um porta-voz da OpenAI disse à Fortune que a empresa “confia na nossa conformidade com as leis de segurança de fronteira, incluindo a SB53.”

“O GPT-5.3-Codex passou por todo o nosso processo de testes e governança, conforme detalhado no cartão do sistema divulgado publicamente, e não demonstrou capacidades de autonomia de longo alcance com base em avaliações por proxy e confirmadas por julgamentos internos de especialistas, incluindo do nosso Grupo Consultor de Segurança,” afirmou o porta-voz. Eles disseram que a empresa pretende esclarecer a redação no atual Quadro de Preparação para comunicar melhor o que a empresa afirma ter sido sua intenção original, ao invés de alterar qualquer prática interna.

No entanto, alguns pesquisadores de segurança contestaram essa interpretação. Nathan Calvin, Vice-Presidente de Assuntos Estaduais e Assuntos Jurídicos da Encode, afirmou em uma publicação na X que: “Ao invés de admitir que não seguiram seu plano ou atualizá-lo antes do lançamento, parece que a OpenAI está dizendo que os critérios eram ambíguos. Pela leitura dos documentos relevantes… não me parece ambíguo.”

O grupo Midas Project também afirma que a OpenAI não consegue provar de forma definitiva que o modelo não possui a autonomia necessária para as medidas extras, já que o modelo anterior, menos avançado, já liderava benchmarks globais de conclusão de tarefas autônomas. O grupo argumenta que, mesmo que as regras fossem pouco claras, a OpenAI deveria tê-las esclarecido antes de lançar o modelo.

Tyler Johnston, fundador do Midas Project, chamou a potencial violação de “especialmente embaraçosa, dado o nível baixo do padrão estabelecido pela SB 53: basicamente, adotar um plano de segurança voluntário de sua escolha e comunicar-se honestamente sobre ele, mudando-o conforme necessário, mas sem violar ou mentir sobre isso.”

Se uma investigação for aberta e as alegações se mostrarem precisas, a SB 53 permite penalidades substanciais por violações, potencialmente chegando a milhões de dólares, dependendo da gravidade e duração do não cumprimento. Um representante do Escritório do Procurador-Geral da Califórnia disse à Fortune que o departamento “está comprometido em fazer cumprir as leis do nosso estado, incluindo aquelas promulgadas para aumentar a transparência e a segurança no espaço emergente de IA.” No entanto, eles afirmaram que o departamento não pode comentar, nem mesmo confirmar ou negar, investigações potenciais ou em andamento.

**Junte-se a nós na Cúpula de Inovação no Local de Trabalho Fortune **19–20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já começou — e o antigo manual está sendo reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo se reunirão para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)