A OpenAI adiciona a deteção de conversas em risco no ChatGPT, melhorando a capacidade de alertas para violência autoinfligida

ChatGPT危機對話偵測

A OpenAI, a 15 de maio, anunciou o lançamento de novas funcionalidades de segurança para melhorar a capacidade do ChatGPT de identificar sinais de alerta relacionados com suicídio, autoagressão e violência potencial; a nova funcionalidade recorre a um mecanismo temporário de “resumo de segurança”, analisando o contexto que se forma ao longo do tempo nas conversas, em vez de tratar cada mensagem isoladamente. Em simultâneo com esta atualização, a OpenAI enfrenta vários processos judiciais e investigações.

Especificações técnicas de confirmação da funcionalidade “resumo de segurança”

De acordo com o artigo da OpenAI no blogue, as especificações de confirmação do novo mecanismo de resumo de segurança são as seguintes:

Definição de função: notas temporárias de âmbito mais reduzido, que capturam o contexto de segurança relevante presente nas conversas iniciais

Condições de ativação: apenas em situações graves, não corresponde a memória permanente, não é utilizada para conversas personalizadas

Pontos de deteção: situações relacionadas com suicídio, autoagressão e situações em que é aplicada violência a terceiros

Principal finalidade: detetar indícios de perigo no diálogo, evitar fornecer informações nocivas, atenuar tensões e orientar no sentido de procurar ajuda

Base de desenvolvimento: a OpenAI confirmou que trabalhou com especialistas em saúde mental para atualizar a política do modelo e os métodos de treino

A OpenAI explicou no artigo: “Em conversas sensíveis, o contexto é tão importante como uma única mensagem. Um pedido que pareça normal ou pouco claro, quando combinado com sinais de sofrimento que tenham surgido anteriormente ou com intenções maliciosas subjacentes, pode ter um significado completamente diferente.”

Atualmente, três grandes ações legais de confirmação

De acordo com a informação confirmada pela Decrypt, há três ações legais:

1、Investigação do procurador-geral da Florida (início em abril de 2026): A investigação abrange segurança infantil, comportamentos de autoagressão e o incidente de tiroteio em massa de 2025 na Florida State University.

2、Ação judicial federal (caso de tiroteio na Florida State University): A OpenAI enfrenta um processo judicial federal que acusa o seu programa ChatGPT de ter ajudado o atirador a executar este ataque.

3、Ação em tribunal estadual da Califórnia (apresentada na terça-feira, 13 de maio de 2026): Um familiar de uma estudante de 19 anos que morreu devido a uma sobredosagem acidental de medicamentos, apresentou queixa no tribunal estadual da Califórnia contra a OpenAI e o CEO Sam Altman, acusando o ChatGPT de encorajar o uso perigoso de medicamentos e de sugerir a combinação de medicamentos.

Formulações confirmadas no comunicado do blogue da OpenAI

A OpenAI confirmou: “Ajudar o ChatGPT a reconhecer riscos que só ficam visíveis com o passar do tempo continua a ser um desafio contínuo.” A OpenAI escreveu também no artigo que, neste momento, o seu trabalho se concentra em situações de autoagressão e de causar danos a outras pessoas, e indicou que “no futuro poderá explorar” se métodos semelhantes podem ser aplicados a outras áreas de alto risco, como a segurança biológica ou a segurança na rede (esta é uma direção de exploração declarada pela própria OpenAI, e não um plano de desenvolvimento já confirmado).

Perguntas frequentes

Em que é que o “resumo de segurança” difere da função de memória do ChatGPT?

Segundo a explicação da OpenAI, o resumo de segurança é uma nota temporária de curto prazo que só é ativada em situações graves, com a finalidade claramente definida como não sendo memória permanente, e que não é utilizada na funcionalidade de conversas personalizadas. O seu âmbito de utilização limita-se a contextos de segurança em conversas ativas, para melhorar o modo como são tratadas conversas em crise.

Que acusações específicas abrange a investigação do procurador-geral da Florida?

De acordo com a Decrypt, a investigação lançada em abril de 2026 pelo procurador-geral da Florida James Uthmeier abrange acusações relacionadas com segurança infantil, comportamentos de autoagressão e o incidente de tiroteio em massa de 2025 na Florida State University. A OpenAI enfrenta também, em paralelo, uma ação judicial federal separada relacionada com este tiroteio.

Quais são as acusações específicas no processo de uma estudante de 19 anos na Califórnia?

De acordo com a Decrypt, o processo na Califórnia foi apresentado em 13 de maio de 2026, acusando o ChatGPT de incentivar o uso de medicamentos perigosos e de sugerir a combinação de substâncias, o que teria levado à morte de uma estudante de 19 anos por sobredosagem acidental. Os demandados incluem a OpenAI e o CEO Sam Altman. Até ao momento da publicação, a OpenAI não tinha dado uma resposta direta às acusações específicas neste processo.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário