في موجة الذكاء الاصطناعي، الجميع يبني نماذج، لكن لا أحد يبني أساسًا قابلًا للتحقق من صحة التسوية — حتى الآن.
ما تقوم بهInference Labs هو تمهيد الطريق لـ AGI. تم دمج الميزات مثل التحقق، حماية الخصوصية، والآليات العادلة في بنية التصميم. الفكرة الأساسية واضحة جدًا: الحاجة إلى أساس غير موثوق به، بحيث يمكن لنماذج الذكاء الاصطناعي والأطراف المعنية العمل عليه بثقة. هذا ليس مجرد مسألة تقنية، بل هو مسألة ثقة. مع تعقيد أنظمة الذكاء الاصطناعي بشكل متزايد، من يضمن أن النتائج الحسابية حقيقية وموثوقة؟ من يضمن أن العملية عادلة وشفافة؟
هذه الآلية القابلة للتحقق من صحة التسوية تعتبر حلقة مفقودة في منظومة الذكاء الاصطناعي بأكملها.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 18
أعجبني
18
5
إعادة النشر
مشاركة
تعليق
0/400
StillBuyingTheDip
· 01-08 15:49
أوه، أخيرًا أحد يوضح الأمر، القاعدة هي الطريق الصحيح
شاهد النسخة الأصليةرد0
Layer2Arbitrageur
· 01-07 19:00
هاها أخيرًا شخص يبني طبقة التحقق بدلاً من مجرد الحديث عنها. معظم المشاريع تترك نقاط الأساس على الطاولة من خلال تجاهل بنية التسوية.
شاهد النسخة الأصليةرد0
airdrop_huntress
· 01-07 11:56
أخيرًا بدأ أحدهم في العمل على البنية التحتية بجدية، وليس مجرد نموذج تراكبي آخر
شاهد النسخة الأصليةرد0
RumbleValidator
· 01-07 11:53
الطبقة التحقق مفقودة منذ فترة طويلة، والآن فقط بدأ أحدهم في اتخاذ إجراءات جادة؟ هذا هو الأمر الحقيقي.
التحقق القابل للتحقق من التسوية ليس إضافة زائدة، بل هو البنية التحتية التي يجب أن تكون عليها.
نماذج التجميع سهلة، بناء الثقة هو الصعب — هذا هو الفارق.
شاهد النسخة الأصليةرد0
MetaMisery
· 01-07 11:43
هذه هي الأمور المهمة، ليست مجرد مشروع آخر يروج لمفهوم مضارب
في موجة الذكاء الاصطناعي، الجميع يبني نماذج، لكن لا أحد يبني أساسًا قابلًا للتحقق من صحة التسوية — حتى الآن.
ما تقوم بهInference Labs هو تمهيد الطريق لـ AGI. تم دمج الميزات مثل التحقق، حماية الخصوصية، والآليات العادلة في بنية التصميم. الفكرة الأساسية واضحة جدًا: الحاجة إلى أساس غير موثوق به، بحيث يمكن لنماذج الذكاء الاصطناعي والأطراف المعنية العمل عليه بثقة. هذا ليس مجرد مسألة تقنية، بل هو مسألة ثقة. مع تعقيد أنظمة الذكاء الاصطناعي بشكل متزايد، من يضمن أن النتائج الحسابية حقيقية وموثوقة؟ من يضمن أن العملية عادلة وشفافة؟
هذه الآلية القابلة للتحقق من صحة التسوية تعتبر حلقة مفقودة في منظومة الذكاء الاصطناعي بأكملها.