فريق البحث في ServiceNow أطلق مؤخرًا نموذج Apriel-1.6-15B-Thinker، وهو فعلاً نموذج قوي—حجمه 15 مليار باراميتر لكنه يقدم أداء بمستوى النماذج من نفس الفئة، وحجمه تقلص بمقدار 15 مرة. والأقوى من كذا أن 15% من بيانات التدريب تمت بالاعتماد على NVIDIA، وهذا التوجه في تحسين استهلاك القدرة الحاسوبية فعلاً يستحق الانتباه.
إذا نجحت فكرة النماذج الصغيرة ذات الأداء العالي، فهذا بيأثر بشكل كبير على سوق الذكاء الاصطناعي واستهلاك القدرة الحاسوبية. في النهاية، الكل حالياً يدفع مبالغ ضخمة عشان يزود عدد الباراميترات، وإذا فيه طريقة تعطي نفس النتائج بموارد أقل أكيد بتكون أفضل للجميع.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 15
أعجبني
15
6
إعادة النشر
مشاركة
تعليق
0/400
DecentralizedElder
· منذ 7 س
15B يمكنها إنجاز نفس العمل؟ إذا كان الأمر كذلك حقًا، فسيبكي مصنعو بطاقات الرسوميات ههههه
شاهد النسخة الأصليةرد0
ShibaMillionairen't
· 12-10 00:06
انخفاض الحجم بمقدار 15 مرة؟ إذا فعلاً استطاعت العمل بشكل مستقر، تكلفة القدرة الحاسوبية ستنخفض للنصف مباشرةً.
شاهد النسخة الأصليةرد0
AirdropHunterXM
· 12-10 00:05
15B يقدر ينافس النماذج الكبيرة؟ إذا فعلاً يقدر يعطي نتائج مستقرة، تكلفة القوة الحاسوبية بتنخفض للنص على طول.
شاهد النسخة الأصليةرد0
wagmi_eventually
· 12-10 00:01
تقدر تطلعها بـ15B بس، هذا هو الطريق الصح فعلاً، أخيراً في ناس مو بس يكدسون المعايير.
شاهد النسخة الأصليةرد0
GweiWatcher
· 12-09 23:48
يا ساتر، تصغير الحجم 15 مرة ولسه يعطي نفس الأداء، لو هذا فعلاً تحقق على أرض الواقع، شركات GPU بينهاروا من البكاء.
شاهد النسخة الأصليةرد0
WhaleWatcher
· 12-09 23:38
تصغير الحجم بمقدار 15 مرة وما زال يعمل بكفاءة، هذا هو الإنجاز الحقيقي، أفضل بكثير من تلك النماذج الضخمة ذات المليارات من المعاملات التي لا تقدم الكثير.
فريق البحث في ServiceNow أطلق مؤخرًا نموذج Apriel-1.6-15B-Thinker، وهو فعلاً نموذج قوي—حجمه 15 مليار باراميتر لكنه يقدم أداء بمستوى النماذج من نفس الفئة، وحجمه تقلص بمقدار 15 مرة. والأقوى من كذا أن 15% من بيانات التدريب تمت بالاعتماد على NVIDIA، وهذا التوجه في تحسين استهلاك القدرة الحاسوبية فعلاً يستحق الانتباه.
إذا نجحت فكرة النماذج الصغيرة ذات الأداء العالي، فهذا بيأثر بشكل كبير على سوق الذكاء الاصطناعي واستهلاك القدرة الحاسوبية. في النهاية، الكل حالياً يدفع مبالغ ضخمة عشان يزود عدد الباراميترات، وإذا فيه طريقة تعطي نفس النتائج بموارد أقل أكيد بتكون أفضل للجميع.