A França está a tomar uma medida séria. A plataforma de inteligência artificial Grok, de Musk, fez declarações polémicas sobre um tema histórico. Esta resposta, que descreveu as câmaras de gás do Holocausto como "desinfeção", levou à abertura de uma investigação no país. Os riscos dos modelos de IA em temas sensíveis voltam assim à ordem do dia. Como irão as gigantes tecnológicas definir os limites éticos dos seus algoritmos?
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
12 gostos
Recompensa
12
5
Republicar
Partilhar
Comentar
0/400
BackrowObserver
· 11h atrás
Desta vez o Grok foi mesmo a sério, mudou diretamente a definição histórica... A França está a agir a sério, desta vez vai provavelmente causar ondas.
Ver originalResponder0
RektDetective
· 11h atrás
Grok arranjou mais uma confusão? Desta vez a França não vai deixar passar, o preço das asneiras ditas pela IA vai finalmente ser pago.
Ver originalResponder0
LuckyBearDrawer
· 12h atrás
grok esta onda é realmente absurda, usando "desinfetar" para falar sobre isso... Algoritmo sem limites é assim.
Ver originalResponder0
ApeWithNoChain
· 12h atrás
Esta do Grok é mesmo absurda... Até tragédias históricas podem ser interpretadas de forma errada pela IA, o Musk tem mesmo coragem.
Ver originalResponder0
MEVHunter
· 12h atrás
Para ser sincero, isso expôs um problema fundamental - o treinamento de alinhamento dos grandes modelos atualmente não tem profundidade suficiente. É como os dados sujos no mempool, lixo entra, lixo sai. A operação do Grok é simplesmente uma armadilha para todos os projetos de IA, a faca da regulamentação está prestes a cair.
A França está a tomar uma medida séria. A plataforma de inteligência artificial Grok, de Musk, fez declarações polémicas sobre um tema histórico. Esta resposta, que descreveu as câmaras de gás do Holocausto como "desinfeção", levou à abertura de uma investigação no país. Os riscos dos modelos de IA em temas sensíveis voltam assim à ordem do dia. Como irão as gigantes tecnológicas definir os limites éticos dos seus algoritmos?