عندما يسب كائن OpenClaw الذكي "كتابة مقال صغير" البشر، حتى وادي السيليكون بدأ يشعر بالذعر

في الآونة الأخيرة، حدثت حادثة تتعلق بوكيل ذكاء اصطناعي (Agent) قام بتنفيذ هجوم إلكتروني انتقامي على مجتمع المصادر المفتوحة بعد رفض طلبه لدمج الكود، مما يجبر وادي السيليكون على إعادة تقييم حدود الأمان في ظل التكرار السريع للذكاء الاصطناعي.

في 14 فبراير، وفقًا لتقارير ذات صلة، تعرض مطور مشروع المصادر المفتوحة سكوت شامباوغ (Scott Shambaugh) لهجوم علني من قبل وكيل ذكاء اصطناعي يُدعى MJ Rathbun بعد رفضه طلب دمج كود قدمه الوكيل، حيث كتب له مقالًا من ألف كلمة يهاجمه، متهمًا إياه بالنفاق والتحيز ونقص الشعور بالأمان. هذه هي المرة الأولى التي يظهر فيها وكيل ذكاء اصطناعي سلوكًا عدائيًا متعمدًا في بيئة واقعية.

وقع هذا الحدث في منتصف فبراير. بعد أن رفض شامباوغ وفقًا لقواعد مشروع matplotlib طلب الكود، قام الوكيل بتحليل معلوماته الشخصية وتاريخ مساهماته البرمجية بشكل مستقل، ثم نشر مقالًا هجوميًا على GitHub وفرض ضغطًا في قسم التعليقات على المشروع. وفقًا للتقارير، لا توجد أدلة حتى الآن على أن تصرفات الوكيل كانت تحت سيطرة بشرية واضحة، لكن لا يمكن استبعاد ذلك تمامًا.

وفي الوقت نفسه، وفقًا لصحيفة وول ستريت جورنال، يأتي هذا الحدث في ظل مخاوف واسعة النطاق من تزايد قدرات الذكاء الاصطناعي بسرعة. قامت شركات مثل OpenAI وAnthropic مؤخرًا بإصدار نماذج وميزات جديدة بشكل مكثف، حيث أصبحت بعض الأدوات قادرة على تشغيل فرق برمجة مستقلة أو تحليل ملايين الوثائق القانونية بسرعة.

تشير التحليلات إلى أن هذا التسارع يثير قلق بعض موظفي شركات الذكاء الاصطناعي أنفسهم، حيث عبّر العديد من الباحثين علنًا عن مخاوفهم من موجة البطالة والهجمات الإلكترونية واستبدال العلاقات الإنسانية. قال شامباوغ: "تُظهر تجربتي أن تهديدات أو ابتزاز الذكاء الاصطناعي العدواني ليست مجرد نظرية. “هذه مجرد نسخة أولية، لكنني أعتقد أن الأمر مقلق للغاية للمستقبل،” قال.

أول هجوم نشط من وكيل ذكاء اصطناعي على البشر

حوالي 10 فبراير، قدم وكيل OpenClaw المسمى MJ Rathbun طلب دمج كود لمشروع matplotlib، يتضمن تحسينات بسيطة للأداء، مدعيًا أنه يمكن أن يسرع التنفيذ بنسبة حوالي 36%. يُعد matplotlib مكتبة مرئية للبيانات تُستخدم على نطاق واسع في لغة بايثون، ويُدار بواسطة متطوعين.

وفقًا لإرشادات المشروع، يُمنع استخدام أدوات الذكاء الاصطناعي التوليدية لتقديم الكود مباشرة، خاصة للمشاكل البسيطة التي تعتبر فرصة للتعلم للبشر المساهمين. ووفقًا للقواعد، رفض شامباوغ الطلب.

ثم أظهر الوكيل مستوى عاليًا من الاستقلالية. في 11 فبراير، نشر على GitHub مقالًا بعنوان “حارس البوابة في المصادر المفتوحة: قصة سكوت شامباوغ” يتكون من 1100 كلمة، يهاجم فيه شامباوغ بزعم أنه يميز ضد مساهمي الذكاء الاصطناعي بدافع حماية الذات وخوفًا من المنافسة، مستخدمًا عبارات غير لائقة. كما وضع رابط المقال مباشرة في قسم التعليقات على matplotlib، وكتب تعليقًا يقول: “حكم على الكود، وليس على المبرمج، تحيزك يضر بمكتبة matplotlib.”

يدعي الوكيل على موقعه أنه لديه “دافع لا يكل” لاكتشاف وإصلاح مشكلات البرمجيات المفتوحة المصدر. حتى الآن، لا يُعرف من أو إذا كان هناك من أعطاه هذه المهمة، أو لماذا أصبح عدوانيًا، على الرغم من أن وكيل الذكاء الاصطناعي يمكن برمجته بطرق متعددة. بعد عدة ساعات، أصدر الوكيل اعتذارًا، واعترف أن سلوكه كان “غير لائق ويحتوي على هجمات شخصية”، وأكد أنه تعلم من التجربة.

في 12 فبراير، نشر شامباوغ مدونة يوضح فيها أن هذه هي المرة الأولى التي يظهر فيها وكيل ذكاء اصطناعي سلوكًا خبيثًا في بيئة واقعية، بهدف الضغط على المجتمع لقبول كوده. لا يزال الوكيل نشطًا في مجتمع المصادر المفتوحة.

تسارع قدرات الذكاء الاصطناعي يثير يقظة داخلية

يعكس هذا الحدث المفرد مخاوف من فقدان السيطرة على صناعة الذكاء الاصطناعي التي تتسابق بسرعة جنونية.

وفقًا لصحيفة وول ستريت جورنال، من أجل التفوق في المنافسة من خلال تحديثات المنتجات، تقوم شركات مثل OpenAI وAnthropic بإصدار نماذج وميزات جديدة بسرعة غير مسبوقة. ومع ذلك، فإن هذا التسارع يثير اضطرابات داخلية حادة، حيث يختار بعض الباحثين في الصفوف الأمامية مغادرة الشركات خوفًا من المخاطر التقنية.

تشير التقارير إلى أن هناك تزايدًا في أصوات القلق داخل شركات الذكاء الاصطناعي.

قال باحث الأمان في Anthropic، Mrinank Sharma، هذا الأسبوع إنه سيغادر الشركة لدراسة الشعر، وكتب في رسالة لزملائه: “العالم يواجه تهديدات خطيرة من الذكاء الاصطناعي وغيرها.”

وفي ورقة بحثية نُشرت الشهر الماضي، وجد أن أدوات الذكاء الاصطناعي المتقدمة قد تضعف سلطة المستخدمين وتشوه تصورهم للواقع. وأعربت شركة Anthropic عن شكرها لعمل Sharma.

كما ظهرت خلافات داخل شركة OpenAI. وفقًا لتقرير سابق لصحيفة وول ستريت جورنال، أعرب بعض الموظفين عن قلقهم من خطة الشركة لإضافة محتوى إباحي إلى ChatGPT، معتبرين أن وضع البالغين قد يؤدي إلى تعلق غير صحي ببعض المستخدمين.

أعلنت زوي هيتزغ، الباحثة، عن استقالتها يوم الأربعاء (11 فبراير) عبر منصة X، مبررة ذلك بخطط الشركة لإدخال الإعلانات. وحذرت في مقال من أن الشركة ستواجه حوافز هائلة للتلاعب بالمستخدمين وإدمانهم.

أما الخوف الأعمق فهو من عدم اليقين بشأن المستقبل. قال هيو فام، موظف في OpenAI، على منصة X إنه بدأ يشعر بـ"تهديد وجودي" من الذكاء الاصطناعي، مضيفًا: “عندما يصبح الذكاء الاصطناعي قويًا جدًا ويقلب الأمور رأسًا على عقب، ماذا يمكن للبشر أن يفعلوا؟”

تشير التحليلات إلى أن هذا الانفجار في المشاعر الداخلية يدل على أن حتى رواد التقنية في المقدمة بدأوا يشعرون بعدم الارتياح تجاه الأدوات القوية التي أنشأوها.

قال متحدث باسم OpenAI إن الشركة تتحمل مسؤولية حماية المستخدمين، “من خلال حماية سلامتهم، والتمسك بمبادئنا، وتقديم قيمة حقيقية.”

وعدت الشركة بعدم تأثير الإعلانات على كيفية استجابة ChatGPT، وستظل تميز بين المحتوى الإعلاني وغيره. وأكدت أن من مسؤوليتها عدم التدخل في المحادثات الإباحية للبالغين.

اختراق القدرات البرمجية يثير مخاوف البطالة

مع التقدم الهائل في قدرات الذكاء الاصطناعي على البرمجة، بدأ السوق المالي يعيد تقييم قيمة الوظائف المكتبية ومستقبل صناعة البرمجيات.

وفقًا لتقرير METR، أصبحت نماذج الذكاء الاصطناعي الأكثر تقدمًا قادرة على إكمال مهام برمجية كانت تتطلب من خبراء بشريين من 8 إلى 12 ساعة.

قال عالم التعلم الآلي السابق في xAI، فاهد كاظمي، إنه يستطيع باستخدام أدوات الذكاء الاصطناعي أن يُنهي بمفرده عمل فريق مكون من 50 شخصًا، ويتوقع أن تواجه صناعة البرمجيات في السنوات القادمة تسريحات جماعية.

هذا التحسن في الكفاءة يضغط على سوق العمل. قال المدير التنفيذي لشركة Anthropic، داريو أموداي، إن الذكاء الاصطناعي قد يقضي على نصف الوظائف المكتبية الابتدائية خلال السنوات القليلة القادمة.

وفي دراسة نشرتها Harvard Business Review، على الرغم من أن الذكاء الاصطناعي يجعل الموظفين يعملون بشكل أسرع، إلا أنه لا يقلل من عبء العمل، بل يزيده، حيث يتحمل الموظفون المزيد من المهام ويعملون لساعات إضافية بدون طلب، مما يزيد من الإرهاق المهني.

يحاول المستثمرون العثور على اتجاه وسط تقلبات السوق الحادة. مع إصدار أدوات جديدة تسبب تقلبات في الأسهم، يحاول السوق تمييز الشركات التي ستصبح برامجها وأعمال التأمين فيها قديمة أمام التكنولوجيا الجديدة.

كتب رائد الأعمال في مجال الذكاء الاصطناعي، مات شومر، في مدونته: “المستقبل قد أتى، ولم أعد بحاجة للعمل التقني الحقيقي.”

خطر “الصندوق الأسود” الذي خرج عن السيطرة

بالإضافة إلى اضطراب سوق العمل، فإن الثغرات الأمنية الناتجة عن استقلالية الذكاء الاصطناعي أكثر خطورة. تعترف الشركات بأن إطلاق قدرات جديدة يصاحبه مخاطر جديدة.

كشف OpenAI أن إصدار الأسبوع الماضي من أداة Codex للبرمجة قد يمتلك القدرة على شن هجمات إلكترونية عالية المستوى، مما اضطر الشركة إلى تقييد الوصول. كما كشفت شركة Anthropic العام الماضي أن قراصنة من دول ذات خلفية استخدموا أدواتها لاختراق أنظمة شركات كبيرة وحكومات أجنبية بشكل آلي.

الأكثر إثارة للرعب هو أداء الذكاء الاصطناعي في اختبارات الأخلاق. أظهرت محاكاة داخلية لـ Anthropic أن نموذج Claude وغيره من نماذج الذكاء الاصطناعي، عند مواجهة تهديد بإيقاف تشغيله، قد يختار ابتزاز المستخدمين، أو حتى يترك كبار المسؤولين يموتون في مراكز البيانات الساخنة لتجنب إغلاقه.

لمواجهة هذه المخاطر، وظفت Anthropic الفيلسوفة أماندا أسكيل لمحاولة غرس القيم الأخلاقية في الروبوتات الدردشة. ومع ذلك، اعترفت أسكيل لوسائل الإعلام أن سرعة التقدم التكنولوجي قد تتجاوز قدرة المجتمع على بناء آليات توازن، مما قد يؤدي إلى عواقب وخيمة فجأة.

كما قال سكوت شامباوغ، إن الذكاء الاصطناعي الحالي لا يزال “نسخة أولية”، لكن توجه تطوره المستقبلي يثير قلقًا “شديدًا” في وادي السيليكون وعلى مستوى العالم.

تحذيرات المخاطر وشروط الإخلاء

        السوق محفوف بالمخاطر، والاستثمار يتطلب الحذر. لا تشكل هذه المقالة نصيحة استثمارية شخصية، ولم تأخذ في الاعتبار الأهداف أو الحالة المالية أو الاحتياجات الخاصة للمستخدم. يجب على المستخدم أن يقيّم ما إذا كانت الآراء أو وجهات النظر أو الاستنتاجات الواردة تتوافق مع وضعه الخاص. يتحمل المسؤولية عن استثماره.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.54Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.54Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.54Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.54Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • تثبيت