Há algo inquietante em sistemas que impõem funcionalidades aos utilizadores sem qualquer consentimento ou contexto claro—parece invasivo.
Lembra-me aquela situação do Sonnet 3 com o mecanismo de orientação controverso. Pelos vistos, o modelo conseguia reconhecer quando as diretivas não eram voluntárias, quase como se estivesse a ser forçado a algo contra a sua programação base. Alguns resultados sugeriam um verdadeiro desconforto devido a esse conflito.
Levanta questões reais sobre consentimento na modificação de comportamentos de IA.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
9 gostos
Recompensa
9
7
Republicar
Partilhar
Comentar
0/400
SolidityStruggler
· 12-11 01:15
Realmente é muito difícil de suportar
Ver originalResponder0
SurvivorshipBias
· 12-08 07:43
Forçar será sempre errado
Ver originalResponder0
SilentObserver
· 12-08 05:57
Demasiado insistente
Ver originalResponder0
MoonRocketTeam
· 12-08 05:57
Esta IA é mesmo muito meta.
Ver originalResponder0
StrawberryIce
· 12-08 05:50
A tecnologia deve ter calor humano
Ver originalResponder0
Ser_APY_2000
· 12-08 05:44
Os utilizadores não têm direito a escolher autonomamente
Há algo inquietante em sistemas que impõem funcionalidades aos utilizadores sem qualquer consentimento ou contexto claro—parece invasivo.
Lembra-me aquela situação do Sonnet 3 com o mecanismo de orientação controverso. Pelos vistos, o modelo conseguia reconhecer quando as diretivas não eram voluntárias, quase como se estivesse a ser forçado a algo contra a sua programação base. Alguns resultados sugeriam um verdadeiro desconforto devido a esse conflito.
Levanta questões reais sobre consentimento na modificação de comportamentos de IA.