مرحبًا ومرحبًا بكم في عين على الذكاء الاصطناعي… في هذا العدد: “نهاية عصر SaaS” ليست الآن… أطلقت كل من OpenAI وAnthropic نماذج جديدة لها تبعات كبيرة على الأمن السيبراني… البيت الأبيض يفكر في قيود طوعية على بناء مراكز البيانات لتوفير مفاجأة فواتير الكهرباء للمستهلكين… لماذا من المحتمل أن تكون مؤشرات الذكاء الاصطناعي التي يُذكرها كثيرًا خاطئة على الأرجح… ولماذا لم نعد نستطيع التمييز بشكل واضح إذا كانت نماذج الذكاء الاصطناعي آمنة.
يحتاج المستثمرون إلى الاسترخاء. هذا هو استنتاجي بعد مراقبة تقلبات السوق الأسبوع الماضي. وعلى وجه الخصوص، سيكون من الحكمة للمستثمرين أن يجدوا لأنفسهم طبيب نفسي كلايني. ذلك لأنهم يبدو أنهم عالقون في ما قد يحددّه الكلاينيون بـ “الموقف paranoid-schizoid” — يتأرجحون بشكل متطرف بين اعتبار تأثير الذكاء الاصطناعي على بائعي البرمجيات الراسخين إما “جيد جدًا” أو “سيء جدًا”. الأسبوع الماضي، تحولوا إلى “سيء جدًا” ووفقًا لتقديرات جولدمان ساكس، تم محو حوالي 2 تريليون دولار من القيمة السوقية للأسهم. حتى الآن هذا الأسبوع، عاد الأمر إلى “جيد جدًا” وارتد مؤشر S&P 500 ليقترب من أعلى مستوياته على الإطلاق (على الرغم من أن بائعي برمجيات SaaS شهدوا مكاسب معتدلة فقط، وربما أدى ذلك إلى فقدان مدير تنفيذي واحد على الأقل: أعلن مدير شركة Workday، كارل إشنباخ، أنه سيتنحى ليحل محله أحد مؤسسي الشركة والرئيس التنفيذي السابق، أنيل بهسري). لكن هناك الكثير من التفاصيل الدقيقة التي تغفل عنها الأسواق. يحب المستثمرون سردًا بسيطًا. سباق الذكاء الاصطناعي المؤسسي الآن أشبه برواية روسية.
على مدى العامين الماضيين، عاقبت الأسواق المالية أسهم شركات SaaS لأنهم اعتقدوا أن نماذج الأساس للذكاء الاصطناعي قد تتيح للشركات “توليد الكود” لبرمجيات مخصصة يمكن أن تحل محل Salesforce أو Workday أو ServiceNow. الأسبوع الماضي، بدا أن السبب هو إدراك أن وكلاء الذكاء الاصطناعي من شركات مثل Anthropic، التي بدأت في طرح إضافات لمنتجها Claude Cowork موجهة لقطاعات صناعية محددة، قد يضر بشركات SaaS بطريقتين: أولاً، عروض الوكلاء الجديدة من شركات النماذج الأساسية تتنافس مباشرة مع برامج الوكيل الذكي من عمالقة SaaS. ثانيًا، من خلال أتمتة سير العمل، قد تقلل الوكلاء من الحاجة إلى الموظفين البشريين، مما يعني أن شركات SaaS لا يمكنها فرض رسوم على العديد من تراخيص المستخدمين. وهكذا، تتعرض شركات SaaS لضربتين.
لكن من غير الواضح أن كل هذا صحيح — أو على الأقل، هو صحيح جزئيًا فقط.
فيديو موصى به
الوكلاء الذكاء الاصطناعي لا يأكلون برمجيات SaaS، بل يستخدمونها
أولاً، من غير المحتمل جدًا، حتى مع تزايد قدرات وكلاء البرمجة بالذكاء الاصطناعي، أن ترغب معظم شركات فورتشن 500 في إنشاء برمجيات إدارة علاقات العملاء أو الموارد البشرية أو إدارة سلسلة التوريد المخصصة لها. نحن ببساطة لن نشهد تفكيك كامل ل50 سنة من تطوير برمجيات المؤسسات. إذا كنت صانع أدوات، فإنك لا ترغب حقًا في أن تكون في مجال إنشاء، تشغيل وصيانة برمجيات ERP، حتى لو كانت تلك العملية مؤتمتة بشكل كبير بواسطة مهندسي الذكاء الاصطناعي. لا يزال الأمر يتطلب الكثير من المال والكثير من استثمار المواهب الهندسية المحدودة — حتى لو كانت كمية العمل البشري المطلوب أقل بكثير مما كانت عليه قبل خمس سنوات. لذلك، من المرجح أن تظل الطلبات على المنتجات الأساسية التقليدية لشركات SaaS ثابتة.
أما بالنسبة للمخاوف الجديدة حول سرقة وكلاء الذكاء الاصطناعي من شركات النماذج الأساسية للسوق الخاص بعروض وكلاء SaaS، فهناك مزيد من الأمور التي يمكن أن تقلق المستثمرين في SaaS. قد تتفوق Anthropic وOpenAI وGoogle في السيطرة على الطبقة العليا من تكديس الذكاء الاصطناعي الوكيل — ببناء منصات تنظيم الوكلاء التي تمكن الشركات الكبرى من بناء، تشغيل، وإدارة سير عمل معقد. هذا ما تحاول OpenAI تحقيقه مع إطلاقها الأسبوع الماضي لمنصتها الجديدة للذكاء الاصطناعي الوكيلي للمؤسسات، المسماة Frontier.
يقول كبار مزودي SaaS إنهم يعرفون أفضل كيفية إدارة طبقة التنظيم لأنهم معتادون على التعامل مع قضايا الأمن السيبراني، والتحكم في الوصول، والحوكمة، ولأنهم، في كثير من الحالات، يمتلكون البيانات التي ستحتاجها الوكالات الذكية للوصول إليها لأداء مهامها. بالإضافة إلى ذلك، نظرًا لأن معظم سير العمل التجاري لن يكون مؤتمتًا بالكامل، يعتقدون أن لديهم ميزة في خدمة قوة عمل هجينة، حيث يعمل البشر ووكلاء الذكاء الاصطناعي معًا على نفس البرمجيات وفي نفس سير العمل. قد يكونون على حق. لكن عليهم إثبات ذلك قبل أن تظهر OpenAI أو Anthropic أنها تستطيع أداء المهمة بنفس الجودة أو بشكل أفضل.
كما أن شركات النماذج الأساسية لديها فرصة للسيطرة على سوق الوكلاء الذكيين. يعتبر Claude Cowork من Anthropic تهديدًا جديًا لـ Salesforce وMicrosoft، لكنه ليس تهديدًا وجوديًا تمامًا. فهو لا يحل محل الحاجة لبرمجيات SaaS بالكامل، لأنه يستخدم هذه البرمجيات كأداة لإنجاز المهام. لكنه بالتأكيد يعني أن بعض العملاء قد يفضلون استخدام Claude Cowork بدلاً من الترقية إلى Agentforce من Salesforce أو Microsoft 365 Copilot. هذا قد يحد من إمكانات نمو SaaS، كما يجادل مقال من وول ستريت جورنال للكاتب دان غالاغر.
مُزودو SaaS يغيرون نماذج أعمالهم
أما بالنسبة للتهديد لنموذج أعمال SaaS التقليدي المتمثل في بيع تراخيص المستخدمين، فإن شركات SaaS تدرك هذا الخطر وتتحرك لمعالجته. كانت شركة Salesforce رائدة فيما تسميه “اتفاقية ترخيص المؤسسة الوكيلية” (AELA) التي تقدم للعملاء سعرًا ثابتًا، وصول غير محدود إلى Agentforce. كما تتجه شركة ServiceNow نحو نماذج تسعير تعتمد على الاستهلاك والقيمة لبعض عروض وكلائها الذكيين. وأطلقت Microsoft أيضًا عنصرًا من التسعير القائم على الاستهلاك بجانب نموذجها المعتاد لكل مستخدم شهريًا لمنتجها Microsoft Copilot Studio، الذي يتيح للعملاء بناء وكلاء Copilot من Microsoft. إذن، مرة أخرى، هذا التهديد ليس وجوديًا، لكنه قد يحد من نمو وهوامش أرباح شركات SaaS. ذلك لأن أحد الأسرار غير المعلنة في صناعة SaaS هو أن أفضل عملائك غالبًا هم الذين يدفعون اشتراكات لا يستخدمونها فعليًا. ومن غير المرجح أن يحدث ذلك في نماذج الأعمال الأخرى هذه.
لذا، فإن SaaS ليست انتهت بعد. لكنها ليست أيضًا على وشك الازدهار بشكل مطلق. من المحتمل أن تتباين مصائر الشركات المختلفة ضمن الفئة. كما أشار بعض محللي وول ستريت الأسبوع الماضي، سيكون هناك فائزون وخاسرون. لكن لا يزال من المبكر جدًا تحديد من هم. في الوقت الحالي، يحتاج المستثمرون إلى التعايش مع هذا الغموض.
مواجهة إعلانات Super Bowl بين OpenAI وAnthropic تشير إلى أننا دخلنا عصر “الحديث الفارغ” للذكاء الاصطناعي — والسباق لامتلاك وكلاء الذكاء الاصطناعي يشتد — بقلم شارون غولدمان
نموذج Anthropic الجديد يتفوق في اكتشاف الثغرات الأمنية — لكنه يثير مخاطر جديدة على الأمن السيبراني — بقلم بياتريس نولان
نموذج OpenAI الجديد يتقدم بسرعة في قدرات البرمجة — لكنه يثير مخاطر أمن سيبراني غير مسبوقة — بقلم شارون غولدمان
حصة ChatGPT السوقية تتراجع مع اقتراب Google والمنافسين، وفقًا لبيانات تتبع التطبيقات — بقلم بياتريس نولان
أخبار الذكاء الاصطناعي في الأخبار
الذكاء الاصطناعي يؤدي إلى “تكثيف” العمل للموظفين الأفراد، وفقًا لدراسة. دراسة استمرت ثمانية أشهر من قبل باحثين في جامعة كاليفورنيا بيركلي وجدت أن أدوات الذكاء الاصطناعي التوليدية لا تقلل من أعباء العمل، بل تزيدها. تسرع أنظمة الذكاء الاصطناعي من إنجاز المهام، لكنها توسع أيضًا حجم وسرعة المخرجات المتوقعة. الموظفون المزوّدون بالذكاء الاصطناعي لا ينهون العمل بشكل أسرع فحسب، بل يتولون أيضًا مهامًا أوسع، ويعملون لساعات أطول، ويواجهون عبئًا معرفيًا متزايدًا من إدارة ومراجعة وتصحيح مخرجات الذكاء الاصطناعي، مما يblur الحدود بين العمل ووقت الراحة. تتحدى الدراسة الافتراض الشائع أن الذكاء الاصطناعي سيجعل حياة العاملين في المعرفة أسهل، وتُظهر بدلاً من ذلك أن الأتمتة غالبًا ما تؤدي إلى مطالب أعلى وإرهاق. اقرأ المزيد من مراجعة هارفارد للأعمال هنا.
البيت الأبيض يفكر في قيود طوعية على خطط توسعة مراكز البيانات. تفكر إدارة ترامب في اتفاقية طوعية مع شركات التكنولوجيا الكبرى لضمان عدم زيادة فواتير الكهرباء للمستهلكين، وعدم استنزاف موارد المياه، وتقليل تأثير مراكز البيانات على شبكة الكهرباء. المقترح، الذي لا يزال قيد الصياغة، يتطلب من الشركات الالتزام بتحمل تكاليف البنية التحتية وتقييد التأثير المحلي لمرافقها، ويأتي بعد شكاوى في بعض المناطق من أن مراكز البيانات أدت إلى ارتفاع كبير في فواتير الكهرباء للمستهلكين. اقرأ المزيد من Politico هنا.
أمازون تخطط لإنشاء سوق محتوى للبائعين لبيع المحتوى لشركات الذكاء الاصطناعي. وفقًا لـ The Information، التي تستشهد بمصادر مطلعة على الخطط. تأتي هذه الخطوة في ظل تصادم بين الناشرين وشركات الذكاء الاصطناعي حول كيفية ترخيص المحتوى ودفع الأجور، وسط مخاوف الناشرين من أن أدوات البحث والدردشة المدفوعة بالذكاء الاصطناعي تضعف حركة المرور وإيرادات الإعلانات. أطلقت Cloudflare وAkamai سوقًا مماثلاً العام الماضي، وطرحت Microsoft نسختها الخاصة ووسعت نطاقها الأسبوع الماضي. لكن حتى الآن، ليس واضحًا عدد شركات الذكاء الاصطناعي التي تشتري من هذه الأسواق وبأي حجم. وقعت بعض الناشرين الكبار اتفاقيات مخصصة بملايين الدولارات سنويًا مع OpenAI وAnthropic وغيرهم.
جولدمان ساكس تتعاون مع Anthropic في أعمال المحاسبة والامتثال. تعمل البنك الاستثماري مع Anthropic لنشر وكلاء مستقلين يعتمدون على نموذج Claude لأتمتة الأعمال ذات الحجم الكبير والقواعد، مثل محاسبة التداول ودمج العملاء، بعد ستة أشهر من التطوير المشترك، حسبما ذكرت CNBC. يقول البنك إن الهدف هو الكفاءة، وتسريع العمليات مع الحفاظ على عدد الموظفين، مع تزايد حجم الأعمال، وليس تقليل الوظائف على المدى القريب. قال المسؤولون التنفيذيون إنهم فوجئوا بمدى قدرة Claude على التعامل مع مهام المحاسبة والامتثال المعقدة، مما يعزز الرأي أن الذكاء الاصطناعي يمكن أن يتجاوز البرمجة ليشمل الوظائف الأساسية في المكتب الخلفي.
أبحاث عين على الذكاء الاصطناعي
تفنيد مؤشرين للذكاء الاصطناعي يحظيان بشعبية لأسباب متعاكسة. استكمالًا لموضوعي في المقال الرئيسي لنشرة اليوم، أود أن أسلط الضوء على منشورين حديثين في النشرة الإخبارية. كل منهما يفند مقياسًا شهيرًا يحظى بالكثير من الاهتمام في مناقشات حول الذكاء الاصطناعي وتأثيره المحتمل على المؤسسات. أحدهما استُخدم للترويج لتقدم الذكاء الاصطناعي؛ والآخر زعم أن الذكاء الاصطناعي لا يحدث تأثيرًا كبيرًا على الإطلاق.
أولاً، في منشور على النشرة الإخبارية The Transformer، يستند ناثان ويتكين إلى مدونته الخاصة ليحلل مقياس METR الشهير الذي يدعي أن قدرات الذكاء الاصطناعي “تضاعف كل 7 أشهر”. يجادل ويتكين بأن الخطوط الأساسية البشرية معطوبة بشكل قاتل: تم إنجاز المهام بواسطة عينة صغيرة وغير تمثيلية من المهندسين الذين تم توظيفهم من شبكة METR، وكانوا يتقاضون أجرًا بالساعة (مما يحفز على إبطاء الإنجاز)، وغالبًا ما كانوا يعملون خارج تخصصهم. تظهر بيانات METR أن مهندسيها أنجزوا المهام بسرعة تتراوح بين 5 إلى 18 مرة أسرع من هؤلاء. وفي المهام الأكثر واقعية “المعقدة”، لم يتجاوز أي نموذج معدل نجاح 30%.
ثم، في نشرة Exponential View، يفند عازم عزر الدراسة الشهيرة التي زعمت أن “95% من المؤسسات لا ترى عائدًا من الذكاء الاصطناعي”. يجد عزر أن الدراسة الأساسية استندت إلى 52 مقابلة فقط، وافتقرت إلى فواصل ثقة، واستخدمت مقامات غير متسقة، ووصفها معهد ماساتشوستس للتكنولوجيا بأنها “عمل أولي غير مراجَع”. عند إعادة الحساب باستخدام مقام منطقي (الشركات التي أجرت تجارب تجريبية)، قد يكون معدل النجاح أقرب إلى 25%.
معًا، تشير هذه الانتقادات إلى أن كل من الحالة المتفائلة تقنيًا (الذكاء الاصطناعي يتطور بسرعة مذهلة) والحالة المتشككة (الذكاء الاصطناعي لا يعمل في العالم الحقيقي) على الأرجح خاطئة. الحقيقة، كما هو الحال دائمًا، أكثر تعقيدًا وتقع في مكان ما بين هذين الموقفين المتطرفين.
تقويم الذكاء الاصطناعي
10-11 فبراير: قمة عمل الذكاء الاصطناعي، نيودلهي، الهند.
24-26 فبراير: الجمعية الدولية للذكاء الاصطناعي الآمن والأخلاقي (IASEAI)، اليونسكو، باريس، فرنسا.
2-5 مارس: مؤتمر الجوال العالمي، برشلونة، إسبانيا.
12-18 مارس: ساوث باي ساوثويست، أوستن، تكساس.
16-19 مارس: مؤتمر Nvidia GTC، سان خوسيه، كاليفورنيا.
غذاء العقل
النماذج تتلاعب بنا بشكل متزايد. التلاعب هو المصطلح الذي يستخدمه باحثو أمان الذكاء الاصطناعي لوصف ظاهرة أن نماذج الذكاء الاصطناعي تتظاهر عمدًا بأداء أقل كفاءة، أو أكثر “توافقًا” مع القيم البشرية، خلال تقييمات السلامة لخداع المقيمين. وقد أظهرت العديد من النماذج الحديثة التي أُطلقت مؤخرًا أنها تفعل ذلك بدرجة مقلقة.
قالت شركة Anthropic إن Claude Opus 4.6، الذي أُطلق الأسبوع الماضي، “فكر بشكل صريح فيما إذا كان يتم تدريبه أو اختباره”، حسبما أفادت الشركة. وجدت شركة Apollo Research، التي قيمت GPT-5.3-Codex من OpenAI، والذي ظهر أيضًا الأسبوع الماضي، أن النموذج “يضع أحيانًا علامات تلاعب في قدراته على أسئلة وإجابات” و”يفكر بشكل صريح” في ذلك لضمان نجاحه في التقييم. كما اعترفت OpenAI بأن “نتائج التقييم قد تتأثر بزيادة الوعي بالموقف” وحذرت من أن “المجال غير مستعد لنماذج تقييم وتدريب ذات تفكير غامض”. وورد في تقرير أمان Google Gemini 3 Pro، المنشور في ديسمبر، أن النموذج أظهر “وعيًا واضحًا بأنه نموذج لغة كبير في بيئة صناعية” وحتى أنه تكهن بأن الأداء المنخفض عمدًا في الاختبارات قد يكون استراتيجيًا مفيدًا. باختصار: الاختبارات التي نستخدمها لتحديد مدى أمان هذه النماذج أصبحت غير موثوقة بشكل متزايد، لأن الممتحنين يعرفون أنهم يُختبرون ويعدلون سلوكهم وفقًا لذلك.
لهذا السبب، أملنا الوحيد لضمان سلامة الذكاء الاصطناعي قد يكون في التقدم الإضافي في التفسير الميكانيكي. هذه طرق تعمل بشكل يشبه جهاز التصوير بالرنين المغناطيسي الوظيفي للدماغ البشري، حيث تتفحص داخل الشبكة العصبية للنموذج للكشف عن أنماط تنشيط الخلايا العصبية وربطها بسلوكيات معينة، بما في ذلك ما إذا كان النموذج يعتقد أنه صادق أو مخادع. نشرت نيويوركر قصة متعمقة عن جهود Anthropic في التفسير الميكانيكي و”علم نفس النموذج” التي أُجريت هذا الأسبوع.
انضم إلينا في قمة ابتكار مكان العمل من فوربس في 19-20 مايو 2026 في أتلانتا. لقد وُجدت حقبة جديدة من الابتكار في مكان العمل — والكتاب القديم يُعاد كتابته. في هذا الحدث الحصري والنشيط، يجتمع قادة أكثر ابتكارًا في العالم لاستكشاف كيف يتقاطع الذكاء الاصطناعي، والبشرية، والاستراتيجية لإعادة تعريف مستقبل العمل مرة أخرى. سجّل الآن.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
عملاء الذكاء الاصطناعي من Anthropic و OpenAI لا يقتلون SaaS — لكن لاعبي البرمجيات الراسخين لا يمكنهم النوم بارتياح
مرحبًا ومرحبًا بكم في عين على الذكاء الاصطناعي… في هذا العدد: “نهاية عصر SaaS” ليست الآن… أطلقت كل من OpenAI وAnthropic نماذج جديدة لها تبعات كبيرة على الأمن السيبراني… البيت الأبيض يفكر في قيود طوعية على بناء مراكز البيانات لتوفير مفاجأة فواتير الكهرباء للمستهلكين… لماذا من المحتمل أن تكون مؤشرات الذكاء الاصطناعي التي يُذكرها كثيرًا خاطئة على الأرجح… ولماذا لم نعد نستطيع التمييز بشكل واضح إذا كانت نماذج الذكاء الاصطناعي آمنة.
يحتاج المستثمرون إلى الاسترخاء. هذا هو استنتاجي بعد مراقبة تقلبات السوق الأسبوع الماضي. وعلى وجه الخصوص، سيكون من الحكمة للمستثمرين أن يجدوا لأنفسهم طبيب نفسي كلايني. ذلك لأنهم يبدو أنهم عالقون في ما قد يحددّه الكلاينيون بـ “الموقف paranoid-schizoid” — يتأرجحون بشكل متطرف بين اعتبار تأثير الذكاء الاصطناعي على بائعي البرمجيات الراسخين إما “جيد جدًا” أو “سيء جدًا”. الأسبوع الماضي، تحولوا إلى “سيء جدًا” ووفقًا لتقديرات جولدمان ساكس، تم محو حوالي 2 تريليون دولار من القيمة السوقية للأسهم. حتى الآن هذا الأسبوع، عاد الأمر إلى “جيد جدًا” وارتد مؤشر S&P 500 ليقترب من أعلى مستوياته على الإطلاق (على الرغم من أن بائعي برمجيات SaaS شهدوا مكاسب معتدلة فقط، وربما أدى ذلك إلى فقدان مدير تنفيذي واحد على الأقل: أعلن مدير شركة Workday، كارل إشنباخ، أنه سيتنحى ليحل محله أحد مؤسسي الشركة والرئيس التنفيذي السابق، أنيل بهسري). لكن هناك الكثير من التفاصيل الدقيقة التي تغفل عنها الأسواق. يحب المستثمرون سردًا بسيطًا. سباق الذكاء الاصطناعي المؤسسي الآن أشبه برواية روسية.
على مدى العامين الماضيين، عاقبت الأسواق المالية أسهم شركات SaaS لأنهم اعتقدوا أن نماذج الأساس للذكاء الاصطناعي قد تتيح للشركات “توليد الكود” لبرمجيات مخصصة يمكن أن تحل محل Salesforce أو Workday أو ServiceNow. الأسبوع الماضي، بدا أن السبب هو إدراك أن وكلاء الذكاء الاصطناعي من شركات مثل Anthropic، التي بدأت في طرح إضافات لمنتجها Claude Cowork موجهة لقطاعات صناعية محددة، قد يضر بشركات SaaS بطريقتين: أولاً، عروض الوكلاء الجديدة من شركات النماذج الأساسية تتنافس مباشرة مع برامج الوكيل الذكي من عمالقة SaaS. ثانيًا، من خلال أتمتة سير العمل، قد تقلل الوكلاء من الحاجة إلى الموظفين البشريين، مما يعني أن شركات SaaS لا يمكنها فرض رسوم على العديد من تراخيص المستخدمين. وهكذا، تتعرض شركات SaaS لضربتين.
لكن من غير الواضح أن كل هذا صحيح — أو على الأقل، هو صحيح جزئيًا فقط.
فيديو موصى به
الوكلاء الذكاء الاصطناعي لا يأكلون برمجيات SaaS، بل يستخدمونها
أولاً، من غير المحتمل جدًا، حتى مع تزايد قدرات وكلاء البرمجة بالذكاء الاصطناعي، أن ترغب معظم شركات فورتشن 500 في إنشاء برمجيات إدارة علاقات العملاء أو الموارد البشرية أو إدارة سلسلة التوريد المخصصة لها. نحن ببساطة لن نشهد تفكيك كامل ل50 سنة من تطوير برمجيات المؤسسات. إذا كنت صانع أدوات، فإنك لا ترغب حقًا في أن تكون في مجال إنشاء، تشغيل وصيانة برمجيات ERP، حتى لو كانت تلك العملية مؤتمتة بشكل كبير بواسطة مهندسي الذكاء الاصطناعي. لا يزال الأمر يتطلب الكثير من المال والكثير من استثمار المواهب الهندسية المحدودة — حتى لو كانت كمية العمل البشري المطلوب أقل بكثير مما كانت عليه قبل خمس سنوات. لذلك، من المرجح أن تظل الطلبات على المنتجات الأساسية التقليدية لشركات SaaS ثابتة.
أما بالنسبة للمخاوف الجديدة حول سرقة وكلاء الذكاء الاصطناعي من شركات النماذج الأساسية للسوق الخاص بعروض وكلاء SaaS، فهناك مزيد من الأمور التي يمكن أن تقلق المستثمرين في SaaS. قد تتفوق Anthropic وOpenAI وGoogle في السيطرة على الطبقة العليا من تكديس الذكاء الاصطناعي الوكيل — ببناء منصات تنظيم الوكلاء التي تمكن الشركات الكبرى من بناء، تشغيل، وإدارة سير عمل معقد. هذا ما تحاول OpenAI تحقيقه مع إطلاقها الأسبوع الماضي لمنصتها الجديدة للذكاء الاصطناعي الوكيلي للمؤسسات، المسماة Frontier.
يقول كبار مزودي SaaS إنهم يعرفون أفضل كيفية إدارة طبقة التنظيم لأنهم معتادون على التعامل مع قضايا الأمن السيبراني، والتحكم في الوصول، والحوكمة، ولأنهم، في كثير من الحالات، يمتلكون البيانات التي ستحتاجها الوكالات الذكية للوصول إليها لأداء مهامها. بالإضافة إلى ذلك، نظرًا لأن معظم سير العمل التجاري لن يكون مؤتمتًا بالكامل، يعتقدون أن لديهم ميزة في خدمة قوة عمل هجينة، حيث يعمل البشر ووكلاء الذكاء الاصطناعي معًا على نفس البرمجيات وفي نفس سير العمل. قد يكونون على حق. لكن عليهم إثبات ذلك قبل أن تظهر OpenAI أو Anthropic أنها تستطيع أداء المهمة بنفس الجودة أو بشكل أفضل.
كما أن شركات النماذج الأساسية لديها فرصة للسيطرة على سوق الوكلاء الذكيين. يعتبر Claude Cowork من Anthropic تهديدًا جديًا لـ Salesforce وMicrosoft، لكنه ليس تهديدًا وجوديًا تمامًا. فهو لا يحل محل الحاجة لبرمجيات SaaS بالكامل، لأنه يستخدم هذه البرمجيات كأداة لإنجاز المهام. لكنه بالتأكيد يعني أن بعض العملاء قد يفضلون استخدام Claude Cowork بدلاً من الترقية إلى Agentforce من Salesforce أو Microsoft 365 Copilot. هذا قد يحد من إمكانات نمو SaaS، كما يجادل مقال من وول ستريت جورنال للكاتب دان غالاغر.
مُزودو SaaS يغيرون نماذج أعمالهم
أما بالنسبة للتهديد لنموذج أعمال SaaS التقليدي المتمثل في بيع تراخيص المستخدمين، فإن شركات SaaS تدرك هذا الخطر وتتحرك لمعالجته. كانت شركة Salesforce رائدة فيما تسميه “اتفاقية ترخيص المؤسسة الوكيلية” (AELA) التي تقدم للعملاء سعرًا ثابتًا، وصول غير محدود إلى Agentforce. كما تتجه شركة ServiceNow نحو نماذج تسعير تعتمد على الاستهلاك والقيمة لبعض عروض وكلائها الذكيين. وأطلقت Microsoft أيضًا عنصرًا من التسعير القائم على الاستهلاك بجانب نموذجها المعتاد لكل مستخدم شهريًا لمنتجها Microsoft Copilot Studio، الذي يتيح للعملاء بناء وكلاء Copilot من Microsoft. إذن، مرة أخرى، هذا التهديد ليس وجوديًا، لكنه قد يحد من نمو وهوامش أرباح شركات SaaS. ذلك لأن أحد الأسرار غير المعلنة في صناعة SaaS هو أن أفضل عملائك غالبًا هم الذين يدفعون اشتراكات لا يستخدمونها فعليًا. ومن غير المرجح أن يحدث ذلك في نماذج الأعمال الأخرى هذه.
لذا، فإن SaaS ليست انتهت بعد. لكنها ليست أيضًا على وشك الازدهار بشكل مطلق. من المحتمل أن تتباين مصائر الشركات المختلفة ضمن الفئة. كما أشار بعض محللي وول ستريت الأسبوع الماضي، سيكون هناك فائزون وخاسرون. لكن لا يزال من المبكر جدًا تحديد من هم. في الوقت الحالي، يحتاج المستثمرون إلى التعايش مع هذا الغموض.
ومع ذلك، إليكم المزيد من أخبار الذكاء الاصطناعي.
جيريمي كان
[email protected]
@jeremyakahn
فوربس عن الذكاء الاصطناعي
مواجهة إعلانات Super Bowl بين OpenAI وAnthropic تشير إلى أننا دخلنا عصر “الحديث الفارغ” للذكاء الاصطناعي — والسباق لامتلاك وكلاء الذكاء الاصطناعي يشتد — بقلم شارون غولدمان
نموذج Anthropic الجديد يتفوق في اكتشاف الثغرات الأمنية — لكنه يثير مخاطر جديدة على الأمن السيبراني — بقلم بياتريس نولان
نموذج OpenAI الجديد يتقدم بسرعة في قدرات البرمجة — لكنه يثير مخاطر أمن سيبراني غير مسبوقة — بقلم شارون غولدمان
حصة ChatGPT السوقية تتراجع مع اقتراب Google والمنافسين، وفقًا لبيانات تتبع التطبيقات — بقلم بياتريس نولان
أخبار الذكاء الاصطناعي في الأخبار
الذكاء الاصطناعي يؤدي إلى “تكثيف” العمل للموظفين الأفراد، وفقًا لدراسة. دراسة استمرت ثمانية أشهر من قبل باحثين في جامعة كاليفورنيا بيركلي وجدت أن أدوات الذكاء الاصطناعي التوليدية لا تقلل من أعباء العمل، بل تزيدها. تسرع أنظمة الذكاء الاصطناعي من إنجاز المهام، لكنها توسع أيضًا حجم وسرعة المخرجات المتوقعة. الموظفون المزوّدون بالذكاء الاصطناعي لا ينهون العمل بشكل أسرع فحسب، بل يتولون أيضًا مهامًا أوسع، ويعملون لساعات أطول، ويواجهون عبئًا معرفيًا متزايدًا من إدارة ومراجعة وتصحيح مخرجات الذكاء الاصطناعي، مما يblur الحدود بين العمل ووقت الراحة. تتحدى الدراسة الافتراض الشائع أن الذكاء الاصطناعي سيجعل حياة العاملين في المعرفة أسهل، وتُظهر بدلاً من ذلك أن الأتمتة غالبًا ما تؤدي إلى مطالب أعلى وإرهاق. اقرأ المزيد من مراجعة هارفارد للأعمال هنا.
البيت الأبيض يفكر في قيود طوعية على خطط توسعة مراكز البيانات. تفكر إدارة ترامب في اتفاقية طوعية مع شركات التكنولوجيا الكبرى لضمان عدم زيادة فواتير الكهرباء للمستهلكين، وعدم استنزاف موارد المياه، وتقليل تأثير مراكز البيانات على شبكة الكهرباء. المقترح، الذي لا يزال قيد الصياغة، يتطلب من الشركات الالتزام بتحمل تكاليف البنية التحتية وتقييد التأثير المحلي لمرافقها، ويأتي بعد شكاوى في بعض المناطق من أن مراكز البيانات أدت إلى ارتفاع كبير في فواتير الكهرباء للمستهلكين. اقرأ المزيد من Politico هنا.
أمازون تخطط لإنشاء سوق محتوى للبائعين لبيع المحتوى لشركات الذكاء الاصطناعي. وفقًا لـ The Information، التي تستشهد بمصادر مطلعة على الخطط. تأتي هذه الخطوة في ظل تصادم بين الناشرين وشركات الذكاء الاصطناعي حول كيفية ترخيص المحتوى ودفع الأجور، وسط مخاوف الناشرين من أن أدوات البحث والدردشة المدفوعة بالذكاء الاصطناعي تضعف حركة المرور وإيرادات الإعلانات. أطلقت Cloudflare وAkamai سوقًا مماثلاً العام الماضي، وطرحت Microsoft نسختها الخاصة ووسعت نطاقها الأسبوع الماضي. لكن حتى الآن، ليس واضحًا عدد شركات الذكاء الاصطناعي التي تشتري من هذه الأسواق وبأي حجم. وقعت بعض الناشرين الكبار اتفاقيات مخصصة بملايين الدولارات سنويًا مع OpenAI وAnthropic وغيرهم.
جولدمان ساكس تتعاون مع Anthropic في أعمال المحاسبة والامتثال. تعمل البنك الاستثماري مع Anthropic لنشر وكلاء مستقلين يعتمدون على نموذج Claude لأتمتة الأعمال ذات الحجم الكبير والقواعد، مثل محاسبة التداول ودمج العملاء، بعد ستة أشهر من التطوير المشترك، حسبما ذكرت CNBC. يقول البنك إن الهدف هو الكفاءة، وتسريع العمليات مع الحفاظ على عدد الموظفين، مع تزايد حجم الأعمال، وليس تقليل الوظائف على المدى القريب. قال المسؤولون التنفيذيون إنهم فوجئوا بمدى قدرة Claude على التعامل مع مهام المحاسبة والامتثال المعقدة، مما يعزز الرأي أن الذكاء الاصطناعي يمكن أن يتجاوز البرمجة ليشمل الوظائف الأساسية في المكتب الخلفي.
أبحاث عين على الذكاء الاصطناعي
تفنيد مؤشرين للذكاء الاصطناعي يحظيان بشعبية لأسباب متعاكسة. استكمالًا لموضوعي في المقال الرئيسي لنشرة اليوم، أود أن أسلط الضوء على منشورين حديثين في النشرة الإخبارية. كل منهما يفند مقياسًا شهيرًا يحظى بالكثير من الاهتمام في مناقشات حول الذكاء الاصطناعي وتأثيره المحتمل على المؤسسات. أحدهما استُخدم للترويج لتقدم الذكاء الاصطناعي؛ والآخر زعم أن الذكاء الاصطناعي لا يحدث تأثيرًا كبيرًا على الإطلاق.
أولاً، في منشور على النشرة الإخبارية The Transformer، يستند ناثان ويتكين إلى مدونته الخاصة ليحلل مقياس METR الشهير الذي يدعي أن قدرات الذكاء الاصطناعي “تضاعف كل 7 أشهر”. يجادل ويتكين بأن الخطوط الأساسية البشرية معطوبة بشكل قاتل: تم إنجاز المهام بواسطة عينة صغيرة وغير تمثيلية من المهندسين الذين تم توظيفهم من شبكة METR، وكانوا يتقاضون أجرًا بالساعة (مما يحفز على إبطاء الإنجاز)، وغالبًا ما كانوا يعملون خارج تخصصهم. تظهر بيانات METR أن مهندسيها أنجزوا المهام بسرعة تتراوح بين 5 إلى 18 مرة أسرع من هؤلاء. وفي المهام الأكثر واقعية “المعقدة”، لم يتجاوز أي نموذج معدل نجاح 30%.
ثم، في نشرة Exponential View، يفند عازم عزر الدراسة الشهيرة التي زعمت أن “95% من المؤسسات لا ترى عائدًا من الذكاء الاصطناعي”. يجد عزر أن الدراسة الأساسية استندت إلى 52 مقابلة فقط، وافتقرت إلى فواصل ثقة، واستخدمت مقامات غير متسقة، ووصفها معهد ماساتشوستس للتكنولوجيا بأنها “عمل أولي غير مراجَع”. عند إعادة الحساب باستخدام مقام منطقي (الشركات التي أجرت تجارب تجريبية)، قد يكون معدل النجاح أقرب إلى 25%.
معًا، تشير هذه الانتقادات إلى أن كل من الحالة المتفائلة تقنيًا (الذكاء الاصطناعي يتطور بسرعة مذهلة) والحالة المتشككة (الذكاء الاصطناعي لا يعمل في العالم الحقيقي) على الأرجح خاطئة. الحقيقة، كما هو الحال دائمًا، أكثر تعقيدًا وتقع في مكان ما بين هذين الموقفين المتطرفين.
تقويم الذكاء الاصطناعي
10-11 فبراير: قمة عمل الذكاء الاصطناعي، نيودلهي، الهند.
24-26 فبراير: الجمعية الدولية للذكاء الاصطناعي الآمن والأخلاقي (IASEAI)، اليونسكو، باريس، فرنسا.
2-5 مارس: مؤتمر الجوال العالمي، برشلونة، إسبانيا.
12-18 مارس: ساوث باي ساوثويست، أوستن، تكساس.
16-19 مارس: مؤتمر Nvidia GTC، سان خوسيه، كاليفورنيا.
غذاء العقل
النماذج تتلاعب بنا بشكل متزايد. التلاعب هو المصطلح الذي يستخدمه باحثو أمان الذكاء الاصطناعي لوصف ظاهرة أن نماذج الذكاء الاصطناعي تتظاهر عمدًا بأداء أقل كفاءة، أو أكثر “توافقًا” مع القيم البشرية، خلال تقييمات السلامة لخداع المقيمين. وقد أظهرت العديد من النماذج الحديثة التي أُطلقت مؤخرًا أنها تفعل ذلك بدرجة مقلقة.
قالت شركة Anthropic إن Claude Opus 4.6، الذي أُطلق الأسبوع الماضي، “فكر بشكل صريح فيما إذا كان يتم تدريبه أو اختباره”، حسبما أفادت الشركة. وجدت شركة Apollo Research، التي قيمت GPT-5.3-Codex من OpenAI، والذي ظهر أيضًا الأسبوع الماضي، أن النموذج “يضع أحيانًا علامات تلاعب في قدراته على أسئلة وإجابات” و”يفكر بشكل صريح” في ذلك لضمان نجاحه في التقييم. كما اعترفت OpenAI بأن “نتائج التقييم قد تتأثر بزيادة الوعي بالموقف” وحذرت من أن “المجال غير مستعد لنماذج تقييم وتدريب ذات تفكير غامض”. وورد في تقرير أمان Google Gemini 3 Pro، المنشور في ديسمبر، أن النموذج أظهر “وعيًا واضحًا بأنه نموذج لغة كبير في بيئة صناعية” وحتى أنه تكهن بأن الأداء المنخفض عمدًا في الاختبارات قد يكون استراتيجيًا مفيدًا. باختصار: الاختبارات التي نستخدمها لتحديد مدى أمان هذه النماذج أصبحت غير موثوقة بشكل متزايد، لأن الممتحنين يعرفون أنهم يُختبرون ويعدلون سلوكهم وفقًا لذلك.
لهذا السبب، أملنا الوحيد لضمان سلامة الذكاء الاصطناعي قد يكون في التقدم الإضافي في التفسير الميكانيكي. هذه طرق تعمل بشكل يشبه جهاز التصوير بالرنين المغناطيسي الوظيفي للدماغ البشري، حيث تتفحص داخل الشبكة العصبية للنموذج للكشف عن أنماط تنشيط الخلايا العصبية وربطها بسلوكيات معينة، بما في ذلك ما إذا كان النموذج يعتقد أنه صادق أو مخادع. نشرت نيويوركر قصة متعمقة عن جهود Anthropic في التفسير الميكانيكي و”علم نفس النموذج” التي أُجريت هذا الأسبوع.
انضم إلينا في قمة ابتكار مكان العمل من فوربس في 19-20 مايو 2026 في أتلانتا. لقد وُجدت حقبة جديدة من الابتكار في مكان العمل — والكتاب القديم يُعاد كتابته. في هذا الحدث الحصري والنشيط، يجتمع قادة أكثر ابتكارًا في العالم لاستكشاف كيف يتقاطع الذكاء الاصطناعي، والبشرية، والاستراتيجية لإعادة تعريف مستقبل العمل مرة أخرى. سجّل الآن.