
في 21 أبريل، أعلنت مؤسسة 0G عن تعاون رسمي مع شركة Alibaba Cloud، بهدف إدخال نموذج اللغة الكبير Qianwen (Qwen) إلى البنية التحتية اللامركزية، بحيث يمكن لوكلاء الذكاء الاصطناعي استدعاء LLM بمستوى تجاري مباشرة من بيئات السلسلة. سيسمح آلية الوصول للتحكم عبر الرموز للمطورين باستخدام قدرات الاستدلال الخاصة بـ Qianwen، مما يحول بكفاءة استدعاءات LLM إلى عمليات قابلة للقياس على السلسلة، لتصبح Qianwen واحدة من أبرز نماذج LLM التجارية ضمن الدفعة الأولى المدمجة في إطار وكلاء لامركزي.
وفقًا لاتفاقية التعاون، تم تحويل طريقة الدفع لاستخدام قدرات استدلال Qianwen من الفوترة التقليدية عبر السحابة إلى آلية وصول قائمة على الرموز، محققًا قابلية قياس استدعاءات LLM على السلسلة. عند قيام وكيل ذكاء اصطناعي باستدعاء استدلال Qianwen، يمكن اعتبار طلبات الحساب وتسوية التكاليف كعمليات قابلة للتدقيق على السلسلة، بدلًا من إتمامها بصمت في الخلفية المركزية.
تتيح هذه البنية لمطوري Web3 تضمين نفس أصول اللغة الكبيرة الأصلية داخل وكلاء الذكاء الاصطناعي، ويمكن عندئذٍ سكّ هذه الوكلاء والتداول وتجميعهم مثل أي أصل رقمي أصيل للتشفير، بحيث تصبح استدعاءات LLM موارد قابلة للبرمجة، جنبًا إلى جنب مع الرموز وDeFi والحوكمة على السلسلة.
بالنسبة إلى 0G، تأتي عملية دمج Qianwen ضمن استراتيجية أوسع لبناء “اقتصاد الوكلاء” (Agent Economy) على السلسلة، بهدف إنشاء نظام يمكن لوكلاء ذكاء اصطناعي مستقلين أن يمتلكوا هوية ويقوموا بدفع تكاليف التشغيل والتفاعل مع بروتوكولات أخرى، دون الاعتماد على النظام البيئي لمنصات ذكاء اصطناعي مركزية. وفي وقت سابق من هذا العام، أعلنت مؤسسة 0G عن خطة نمو للبيئة بقيمة 88.88 مليون دولار، بهدف تمويل وكلاء ذكاء اصطناعي لامركزيين وتطبيقات لامركزية عالية الكفاءة (dApp).
تذكر Alibaba Cloud أن سلسلة Qianwen تم نشرها حاليًا بأكثر من 90 ألف مثيل حول العالم، تشمل نماذج Qwen2.5 بأحجام معلمات تتراوح من 7 مليارات إلى 72 مليارًا، إضافةً إلى منتجات متعددة الوسائط مثل Qianwen VL (الرؤية) وQianwen Audio. توفر هذه السلسلة نسختين: مفتوحة ومغلقة. وتهدف هذه الشراكة إلى توسيع حزمة التقنيات على مستوى المؤسسات إلى بيئات لا تتطلب تصاريح.
مؤسسة 0G هي مشروع بنية تحتية لـ Web3 يركز على “طبقة الذكاء الاصطناعي (AIL) ونظام تشغيل الذكاء الاصطناعي اللامركزي (dAIOS)”، بهدف توفير بيئة تشغيل كاملة على السلسلة لوكلاء ذكاء اصطناعي مستقلين. يعد إدخال LLM الخاصة بـ Qianwen خطوة محددة لبناء اقتصاد وكلاء على السلسلة، بحيث يمكن لوكلاء الذكاء الاصطناعي أثناء تنفيذ مهام الاستدلال استدعاء LLM بمستوى تجاري مباشرة، دون الاعتماد على بوابة API مركزية.
تعتمد واجهات API السحابية التقليدية على الفوترة بالعملة الورقية والتحقق من الهوية المركزية، وتكتمل جميع العمليات في الخلفية المركزية، ولا يمكن تدقيقها خارجيًا. أما الوصول عبر التحكم بالرموز فيحوّل استدعاءات LLM إلى عمليات قابلة للقياس على السلسلة، وتُدفع التكاليف باستخدام الرموز، ويمكن التحقق من العملية كاملة على السلسلة، مما يتيح لوكلاء ذكاء اصطناعي الدفع واستدعاء خدمات الاستدلال بشكل مستقل وبطريقة برمجية.
يمكن للمطورين تضمين قدرات استدلال Qianwen مباشرة داخل وكلاء ذكاء اصطناعي على السلسلة، بحيث يستطيع الوكيل عند تنفيذ المهام استدعاء “ذكاء” نماذج LLM على مستوى المؤسسات، مع الحفاظ في الوقت نفسه على طابع الوكيل اللامركزي. إذا نجحت التجربة، فقد تصبح هذه طريقة/قالبًا ملموسًا لكيفية قيام شركات سحابية ضخمة النطاق بربط ذكاء اصطناعي أصيل من السحابة بتنسيق لامركزي.
مقالات ذات صلة
Sunny Side Labs تطلق Privacy Boost، حل خصوصية للمؤسسات على شبكة Optimism الرئيسية
VOOI Light توقف الخدمات في 18 مايو بعد قرار موفر البنية التحتية بإنهاء حل تجريد السلاسل
ساندول تُطلق Sandoll Square، منصة AI-Web3 لتمكين إدارة أصول رقمية لامركزية
جاستن صن يرفع دعوى ضد World Liberty Financial بسبب تجميد رموز WLFI وحقوق الحوكمة