Acaban de soltar dos nuevos conjuntos de datos para cualquiera que esté construyendo a gran escala. La colección Nemotron-ClimbLab contiene 1.2 billones de tokens, diseñada específicamente para un entrenamiento eficiente de modelos a gran escala. Ambos conjuntos de datos están ahora disponibles públicamente para desarrolladores e investigadores que trabajan en infraestructura de IA de próxima generación. Este tipo de lanzamiento de código abierto podría reducir seriamente la barrera para los equipos que intentan entrenar modelos pesados sin agotar sus presupuestos de cómputo.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
10 me gusta
Recompensa
10
4
Republicar
Compartir
Comentar
0/400
AirdropBuffet
· hace9h
¿1.2T tokens? Madre mía, ¿cuánto dinero hay que ahorrar para esa cantidad de datos?
Ver originalesResponder0
AirdropAnxiety
· hace9h
¿1.2 billones de tokens? Ahora se puede gastar menos en tarjetas gráficas.
Ver originalesResponder0
MentalWealthHarvester
· hace10h
¿1.2 billones de tokens? Dios mío, ahora incluso los equipos pequeños podrán jugar con grandes modelos, sin tener que ser aplastados por el costo de potencia computacional.
Ver originalesResponder0
AirdropDreamBreaker
· hace10h
1.2 billones de token? Ahora se puede gastar menos en tarjetas gráficas, finalmente hay un Código abierto con conciencia.
Acaban de soltar dos nuevos conjuntos de datos para cualquiera que esté construyendo a gran escala. La colección Nemotron-ClimbLab contiene 1.2 billones de tokens, diseñada específicamente para un entrenamiento eficiente de modelos a gran escala. Ambos conjuntos de datos están ahora disponibles públicamente para desarrolladores e investigadores que trabajan en infraestructura de IA de próxima generación. Este tipo de lanzamiento de código abierto podría reducir seriamente la barrera para los equipos que intentan entrenar modelos pesados sin agotar sus presupuestos de cómputo.