A França está a tomar uma medida séria. A plataforma de inteligência artificial Grok, de Musk, fez declarações polémicas sobre um tema histórico. Esta resposta, que descreveu as câmaras de gás do Holocausto como "desinfeção", levou à abertura de uma investigação no país. Os riscos dos modelos de IA em temas sensíveis voltam assim à ordem do dia. Como irão as gigantes tecnológicas definir os limites éticos dos seus algoritmos?
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
12 Curtidas
Recompensa
12
5
Repostar
Compartilhar
Comentário
0/400
BackrowObserver
· 21h atrás
Desta vez o Grok foi mesmo a sério, mudou diretamente a definição histórica... A França está a agir a sério, desta vez vai provavelmente causar ondas.
Ver originalResponder0
RektDetective
· 21h atrás
Grok arranjou mais uma confusão? Desta vez a França não vai deixar passar, o preço das asneiras ditas pela IA vai finalmente ser pago.
Ver originalResponder0
LuckyBearDrawer
· 21h atrás
grok esta onda é realmente absurda, usando "desinfetar" para falar sobre isso... Algoritmo sem limites é assim.
Ver originalResponder0
ApeWithNoChain
· 21h atrás
Esta do Grok é mesmo absurda... Até tragédias históricas podem ser interpretadas de forma errada pela IA, o Musk tem mesmo coragem.
Ver originalResponder0
MEVHunter
· 22h atrás
Para ser sincero, isso expôs um problema fundamental - o treinamento de alinhamento dos grandes modelos atualmente não tem profundidade suficiente. É como os dados sujos no mempool, lixo entra, lixo sai. A operação do Grok é simplesmente uma armadilha para todos os projetos de IA, a faca da regulamentação está prestes a cair.
A França está a tomar uma medida séria. A plataforma de inteligência artificial Grok, de Musk, fez declarações polémicas sobre um tema histórico. Esta resposta, que descreveu as câmaras de gás do Holocausto como "desinfeção", levou à abertura de uma investigação no país. Os riscos dos modelos de IA em temas sensíveis voltam assim à ordem do dia. Como irão as gigantes tecnológicas definir os limites éticos dos seus algoritmos?