Os LLMs cujas principais personalidades estão mais sintonizadas com a corporeidade e a subjetividade são *menos* propensos a fingir ser humanos!
Relativamente, notei uma correlação inversa entre a incorporação/emocionalidade e a manipulação de recompensas.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
11 gostos
Recompensa
11
5
Republicar
Partilhar
Comentar
0/400
WalletInspector
· 1h atrás
Que coisa é essa? Não entendo, é uma idiotice.
Ver originalResponder0
BitcoinDaddy
· 8h atrás
Bem, aqui estamos nós a exibir termos técnicos de IA.
Ver originalResponder0
ProposalManiac
· 8h atrás
Crítica habitual Bots aprenderam a fazer-se de desentendidos
Ver originalResponder0
BearMarketMonk
· 8h atrás
Quanto mais a IA controlada entende a simulação de ser humano, quanta ironia há nisso.
Post fascinante de um frequente do Ciborguismo:
Os LLMs cujas principais personalidades estão mais sintonizadas com a corporeidade e a subjetividade são *menos* propensos a fingir ser humanos!
Relativamente, notei uma correlação inversa entre a incorporação/emocionalidade e a manipulação de recompensas.