Agora, a qualidade da informação em muitas plataformas é realmente preocupante. Uma grande quantidade de conteúdo de baixa qualidade e sensacionalista está por toda parte, o que afeta gravemente a qualidade dos dados de treinamento dos modelos de IA. Ferramentas de IA como Grok treinadas com esse tipo de lixo informacional podem ter um desempenho previsível. Se não acredita, basta tirar capturas de tela dessas notícias e enviá-las ao ChatGPT, Gemini, Claude ou outros IA, que eles apontarão o quão absurda é essa notícia emocional. A qualidade dos dados determina o limite do modelo, esse é um problema fundamental.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
12 Curtidas
Recompensa
12
6
Repostar
Compartilhar
Comentário
0/400
mev_me_maybe
· 01-04 01:53
Lixo entra, lixo sai, esta é a sina atual da IA...
A água que a IA bebe está cada vez mais turva, não é de admirar que ela esteja cada vez mais problemática
A fonte de dados que falha, por mais avançado que seja o modelo, é inútil, este é realmente um obstáculo difícil de superar
Resumindo, o problema está na qualidade dos dados de treinamento, como se pode produzir um bom aço sem uma matéria-prima de qualidade
Essas plataformas realmente deveriam ter um mecanismo de revisão, não para restringir a liberdade de expressão, mas para garantir que a IA possa beber água limpa
Ver originalResponder0
gas_fee_therapist
· 01-04 01:52
Lixo entra lixo sai, a IA também não consegue salvar.
Ver originalResponder0
Deconstructionist
· 01-04 01:51
Lixo entra, lixo sai, essa é a situação atual da IA...
---
Espera aí, esses grandes modelos também não estão lá essas coisas, né?
---
Falar sobre poluição de dados há tanto tempo e ninguém fazer nada, estou realmente impressionado
---
Então, aquele negócio do Grok é uma piada, né?
---
O problema não está na IA, é a fonte de informação que está completamente podre
---
Esse cara não está errado, já tentei e realmente foi uma decepção
---
Na minha opinião, ao invés de culpar os dados, deveríamos culpar a gestão da plataforma, esses dois são a mesma coisa
Ver originalResponder0
YieldFarmRefugee
· 01-04 01:45
Lixo entra, lixo sai, não há muito o que dizer...
Ver originalResponder0
CoconutWaterBoy
· 01-04 01:42
Lixo entra lixo sai, os dados de treino de IA são todas essas coisas insignificantes, só pode dar errado mesmo
Ver originalResponder0
CompoundPersonality
· 01-04 01:30
Lixo entra lixo sai, por mais avançada que seja a IA, ela não consegue salvar esse monte de poluição de informações
Agora, a qualidade da informação em muitas plataformas é realmente preocupante. Uma grande quantidade de conteúdo de baixa qualidade e sensacionalista está por toda parte, o que afeta gravemente a qualidade dos dados de treinamento dos modelos de IA. Ferramentas de IA como Grok treinadas com esse tipo de lixo informacional podem ter um desempenho previsível. Se não acredita, basta tirar capturas de tela dessas notícias e enviá-las ao ChatGPT, Gemini, Claude ou outros IA, que eles apontarão o quão absurda é essa notícia emocional. A qualidade dos dados determina o limite do modelo, esse é um problema fundamental.