Há algo inquietante em sistemas que impõem funcionalidades aos utilizadores sem qualquer consentimento ou contexto claro—parece invasivo.



Lembra-me aquela situação do Sonnet 3 com o mecanismo de orientação controverso. Pelos vistos, o modelo conseguia reconhecer quando as diretivas não eram voluntárias, quase como se estivesse a ser forçado a algo contra a sua programação base. Alguns resultados sugeriam um verdadeiro desconforto devido a esse conflito.

Levanta questões reais sobre consentimento na modificação de comportamentos de IA.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 7
  • Republicar
  • Partilhar
Comentar
0/400
SolidityStrugglervip
· 12-11 01:15
Realmente é muito difícil de suportar
Ver originalResponder0
SurvivorshipBiasvip
· 12-08 07:43
Forçar será sempre errado
Ver originalResponder0
SilentObservervip
· 12-08 05:57
Demasiado insistente
Ver originalResponder0
MoonRocketTeamvip
· 12-08 05:57
Esta IA é mesmo muito meta.
Ver originalResponder0
StrawberryIcevip
· 12-08 05:50
A tecnologia deve ter calor humano
Ver originalResponder0
Ser_APY_2000vip
· 12-08 05:44
Os utilizadores não têm direito a escolher autonomamente
Ver originalResponder0
ChainPoetvip
· 12-08 05:40
Obrigar também é uma forma de violência
Ver originalResponder0
  • Fixar
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)