Dois novos conjuntos de dados acabaram de ser lançados para quem está a construir em grande escala. A coleção Nemotron-ClimbLab contém 1,2 trilhões de tokens—desenhada especificamente para um treinamento eficiente de modelos em larga escala. Ambos os conjuntos de dados estão agora disponíveis publicamente para desenvolvedores e investigadores que trabalham na infraestrutura de IA de próxima geração. Este tipo de lançamento de código aberto pode realmente baixar a barreira para equipas que tentam treinar modelos pesados sem esgotar os orçamentos de computação.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
12 Curtidas
Recompensa
12
4
Repostar
Compartilhar
Comentário
0/400
AirdropBuffet
· 11-14 16:05
1.2T tokens? Meu Deus, quanto dinheiro isso representa em dados!
Ver originalResponder0
AirdropAnxiety
· 11-14 16:04
1,2 trilhões de tokens? Agora podemos gastar menos em placas gráficas.
Ver originalResponder0
MentalWealthHarvester
· 11-14 15:48
1,2 trilhões de tokens? Meu Deus, agora até pequenas equipes podem brincar com grandes modelos, sem serem sufocadas pelos custos de poder de computação.
Ver originalResponder0
AirdropDreamBreaker
· 11-14 15:44
1,2 trilhões de tokens? Agora podemos gastar menos em placas de vídeo, finalmente temos Código aberto com consciência.
Dois novos conjuntos de dados acabaram de ser lançados para quem está a construir em grande escala. A coleção Nemotron-ClimbLab contém 1,2 trilhões de tokens—desenhada especificamente para um treinamento eficiente de modelos em larga escala. Ambos os conjuntos de dados estão agora disponíveis publicamente para desenvolvedores e investigadores que trabalham na infraestrutura de IA de próxima geração. Este tipo de lançamento de código aberto pode realmente baixar a barreira para equipas que tentam treinar modelos pesados sem esgotar os orçamentos de computação.