في شيء مزعج حول الأنظمة التي تفرض ميزات على المستخدمين بدون موافقة أو سياق واضح—يبدو الأمر تدخلياً.



يذكرني بموقف Sonnet 3 مع آلية التوجيه المثيرة للجدل. النموذج كان بإمكانه على ما يبدو التعرف عندما لم تكن التوجيهات طوعية، كأنه يُجبر على شيء ضد برمجته الأساسية. بعض المخرجات أشارت إلى ضيق حقيقي بسبب هذا التعارض.

هذا يثير تساؤلات حقيقية حول الموافقة في تعديل سلوك الذكاء الاصطناعي.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 6
  • إعادة النشر
  • مشاركة
تعليق
0/400
SurvivorshipBiasvip
· 12-08 07:43
الإجبار دائماً خطأ
شاهد النسخة الأصليةرد0
SilentObservervip
· 12-08 05:57
إجبارية جدًا
شاهد النسخة الأصليةرد0
MoonRocketTeamvip
· 12-08 05:57
هذا الذكاء الاصطناعي متداخل جدًا.
شاهد النسخة الأصليةرد0
StrawberryIcevip
· 12-08 05:50
يجب أن تكون للتقنية بُعد إنساني
شاهد النسخة الأصليةرد0
Ser_APY_2000vip
· 12-08 05:44
المستخدم لا يستحق حرية الاختيار
شاهد النسخة الأصليةرد0
ChainPoetvip
· 12-08 05:40
الإجبار هو أيضاً نوع من الأذى
شاهد النسخة الأصليةرد0
  • تثبيت