Le nouveau MacBook M5 Max avec 128 Go de RAM peut désormais exécuter facilement Llama 70B en tant que LLM local.


Faire fonctionner cette IA il y a 1,5 ans aurait nécessité un cluster GPU de 40k.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler