قد تكون شركة OpenAI قد انتهكت قانون السلامة الجديد للذكاء الاصطناعي في كاليفورنيا من خلال إصدار أحدث نموذج برمجي لها، وفقًا لادعاءات من مجموعة مراقبة الذكاء الاصطناعي.
قد يؤدي هذا الانتهاك إلى تعرض الشركة لغرامات تصل إلى ملايين الدولارات، وقد يصبح القضية سابقة قانونية لاختبار أحكام القانون الجديد.
الفيديو الموصى به
تتركز الجدل حول GPT-5.3-Codex، أحدث نموذج برمجي من OpenAI، والذي تم إصداره الأسبوع الماضي. يُعد النموذج جزءًا من جهود OpenAI لاستعادة ريادتها في مجال البرمجة المدعومة بالذكاء الاصطناعي، ويظهر، وفقًا لبيانات المقاييس التي أصدرتها OpenAI، أداءً أعلى بشكل ملحوظ في مهام البرمجة مقارنةً بالإصدارات السابقة من OpenAI ومنافسين مثل Anthropic. ومع ذلك، أثار النموذج أيضًا مخاوف غير مسبوقة بشأن الأمن السيبراني.
قال الرئيس التنفيذي سام ألتمان إن النموذج هو الأول الذي يصنف ضمن فئة “عالية” المخاطر من حيث الأمن السيبراني على إطار جاهزية الشركة، وهو نظام تصنيف داخلي للمخاطر تستخدمه OpenAI عند إصدار النماذج. هذا يعني أن OpenAI تصنف النموذج على أنه قادر بما يكفي على البرمجة ليتيح أضرارًا إلكترونية كبيرة، خاصة إذا تم استخدامه بشكل آلي أو على نطاق واسع.
تدعي مجموعة مراقبة الذكاء الاصطناعي، مشروع ميداس، أن OpenAI فشلت في الالتزام بالتزاماتها الأمنية الخاصة—التي أصبحت ملزمة قانونيًا بموجب قانون كاليفورنيا—مع إطلاق النموذج الجديد عالي المخاطر.
قانون SB 53 في كاليفورنيا، الذي دخل حيز التنفيذ في يناير، يُلزم الشركات الكبرى في مجال الذكاء الاصطناعي بنشر والالتزام بأطر السلامة الخاصة بها التي توضح كيف ستمنع المخاطر الكارثية—التي تُعرف بأنها حوادث تتسبب في أكثر من 50 وفاة أو أضرار مادية تتجاوز مليار دولار—من نماذجها. كما يمنع هذه الشركات من إصدار بيانات مضللة حول الامتثال.
يتطلب إطار السلامة الخاص بـ OpenAI تدابير حماية خاصة للنماذج ذات المخاطر العالية للأمن السيبراني، والتي تهدف إلى منع الذكاء الاصطناعي من التمرد أو القيام بأفعال خادعة، أو تخريب أبحاث السلامة، أو إخفاء قدراته الحقيقية. ومع ذلك، لم تنفذ الشركة هذه التدابير قبل إطلاق GPT-5.3-Codex.
تقول OpenAI إن ذلك يرجع إلى أن صياغة الإطار غامضة. في تقرير السلامة المرافق للنموذج، ذكرت OpenAI أن التدابير الوقائية ضرورية فقط عندما يحدث خطر سيبراني عالي “بالاقتران مع” الاستقلالية طويلة المدى—أي القدرة على العمل بشكل مستقل لفترات ممتدة. وبما أن الشركة تعتقد أن GPT-5.3-Codex يفتقر إلى هذه الاستقلالية، فهي تقول إن التدابير لم تكن مطلوبة.
قال متحدث باسم OpenAI لـ فوربس إن الشركة “واثقة من امتثالنا لقوانين السلامة الرائدة، بما في ذلك SB53.”
“أكمل GPT-5.3-Codex عملية الاختبار والحوكمة الكاملة لدينا، كما هو موضح في بطاقة النظام التي تم إصدارها علنًا، ولم يُظهر قدرات استقلالية طويلة المدى استنادًا إلى تقييمات بديلة وبموافقة من خبرائنا الداخليين، بما في ذلك من مجموعة استشارات السلامة لدينا,” قال المتحدث. وأضاف أن الشركة تنوي توضيح اللغة في إطار الجاهزية الحالي ليعبر بشكل أفضل عن ما تقول إنه نيتها الأصلية، بدلاً من تغيير أي ممارسات داخلية.
ومع ذلك، اعترض بعض الباحثين في مجال السلامة على هذا التفسير. قال ناثان كالڤن، نائب رئيس الشؤون الحكومية والمستشار العام في Encode، في منشور على X: “بدلاً من الاعتراف بعدم اتباع خطتهم أو تحديثها قبل الإصدار، يبدو أن OpenAI تقول إن المعايير كانت غامضة. من قراءة الوثائق ذات الصلة… لا أعتقد أنها غامضة.”
كما تدعي مجموعة ميداس أن OpenAI لا يمكنها إثبات بشكل قاطع أن النموذج يفتقر إلى الاستقلالية المطلوبة للتدابير الإضافية، حيث أن النموذج السابق الأقل تطورًا من الشركة كان قد تصدر المقاييس العالمية لإنجاز المهام بشكل مستقل. وتؤكد المجموعة أنه حتى لو كانت القواعد غير واضحة، كان ينبغي على OpenAI توضيحها قبل إصدار النموذج.
وصف تيلر جونستون، مؤسس مشروع ميداس، الانتهاك المحتمل بأنه “محرج بشكل خاص بالنظر إلى أن الحد الأدنى الذي وضعه قانون SB 53 منخفض جدًا: ببساطة، اعتماد خطة سلامة تطوعية تختارها والتواصل بصراحة عنها، وتعديلها حسب الحاجة، دون انتهاك أو كذب بشأنها.”
إذا تم فتح تحقيق وتأكدت الادعاءات، فإن قانون SB 53 يسمح بفرض غرامات كبيرة على الانتهاكات، قد تصل إلى ملايين الدولارات اعتمادًا على مدى وخامة ومدة عدم الامتثال. وأفاد ممثل عن مكتب المدعي العام في كاليفورنيا لـ فوربس أن القسم “ملتزم بتنفيذ قوانين ولايتنا، بما في ذلك تلك التي تم سنها لزيادة الشفافية والسلامة في مجال الذكاء الاصطناعي الناشئ.” ومع ذلك، قال إن القسم غير قادر على التعليق على التحقيقات المحتملة أو الجارية، سواء بالتأكيد أو النفي.
انضم إلينا في قمة ابتكار بيئة العمل من فوربس في 19-20 مايو 2026 في أتلانتا. لقد حان عصر جديد من الابتكار في بيئة العمل—وتم إعادة كتابة الكتاب القديم. في هذا الحدث الحصري والنشيط، سيجتمع قادة أكثر ابتكارًا في العالم لاستكشاف كيف يتقاطع الذكاء الاصطناعي والبشرية والاستراتيجية لإعادة تعريف مستقبل العمل مرة أخرى. سجل الآن.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تبدو شركة OpenAI قد انتهكت قانون سلامة الذكاء الاصطناعي في كاليفورنيا مع إصدار النموذج الأحدث، وفقًا لما يدعيه المراقبون
قد تكون شركة OpenAI قد انتهكت قانون السلامة الجديد للذكاء الاصطناعي في كاليفورنيا من خلال إصدار أحدث نموذج برمجي لها، وفقًا لادعاءات من مجموعة مراقبة الذكاء الاصطناعي.
قد يؤدي هذا الانتهاك إلى تعرض الشركة لغرامات تصل إلى ملايين الدولارات، وقد يصبح القضية سابقة قانونية لاختبار أحكام القانون الجديد.
الفيديو الموصى به
تتركز الجدل حول GPT-5.3-Codex، أحدث نموذج برمجي من OpenAI، والذي تم إصداره الأسبوع الماضي. يُعد النموذج جزءًا من جهود OpenAI لاستعادة ريادتها في مجال البرمجة المدعومة بالذكاء الاصطناعي، ويظهر، وفقًا لبيانات المقاييس التي أصدرتها OpenAI، أداءً أعلى بشكل ملحوظ في مهام البرمجة مقارنةً بالإصدارات السابقة من OpenAI ومنافسين مثل Anthropic. ومع ذلك، أثار النموذج أيضًا مخاوف غير مسبوقة بشأن الأمن السيبراني.
قال الرئيس التنفيذي سام ألتمان إن النموذج هو الأول الذي يصنف ضمن فئة “عالية” المخاطر من حيث الأمن السيبراني على إطار جاهزية الشركة، وهو نظام تصنيف داخلي للمخاطر تستخدمه OpenAI عند إصدار النماذج. هذا يعني أن OpenAI تصنف النموذج على أنه قادر بما يكفي على البرمجة ليتيح أضرارًا إلكترونية كبيرة، خاصة إذا تم استخدامه بشكل آلي أو على نطاق واسع.
تدعي مجموعة مراقبة الذكاء الاصطناعي، مشروع ميداس، أن OpenAI فشلت في الالتزام بالتزاماتها الأمنية الخاصة—التي أصبحت ملزمة قانونيًا بموجب قانون كاليفورنيا—مع إطلاق النموذج الجديد عالي المخاطر.
قانون SB 53 في كاليفورنيا، الذي دخل حيز التنفيذ في يناير، يُلزم الشركات الكبرى في مجال الذكاء الاصطناعي بنشر والالتزام بأطر السلامة الخاصة بها التي توضح كيف ستمنع المخاطر الكارثية—التي تُعرف بأنها حوادث تتسبب في أكثر من 50 وفاة أو أضرار مادية تتجاوز مليار دولار—من نماذجها. كما يمنع هذه الشركات من إصدار بيانات مضللة حول الامتثال.
يتطلب إطار السلامة الخاص بـ OpenAI تدابير حماية خاصة للنماذج ذات المخاطر العالية للأمن السيبراني، والتي تهدف إلى منع الذكاء الاصطناعي من التمرد أو القيام بأفعال خادعة، أو تخريب أبحاث السلامة، أو إخفاء قدراته الحقيقية. ومع ذلك، لم تنفذ الشركة هذه التدابير قبل إطلاق GPT-5.3-Codex.
تقول OpenAI إن ذلك يرجع إلى أن صياغة الإطار غامضة. في تقرير السلامة المرافق للنموذج، ذكرت OpenAI أن التدابير الوقائية ضرورية فقط عندما يحدث خطر سيبراني عالي “بالاقتران مع” الاستقلالية طويلة المدى—أي القدرة على العمل بشكل مستقل لفترات ممتدة. وبما أن الشركة تعتقد أن GPT-5.3-Codex يفتقر إلى هذه الاستقلالية، فهي تقول إن التدابير لم تكن مطلوبة.
قال متحدث باسم OpenAI لـ فوربس إن الشركة “واثقة من امتثالنا لقوانين السلامة الرائدة، بما في ذلك SB53.”
“أكمل GPT-5.3-Codex عملية الاختبار والحوكمة الكاملة لدينا، كما هو موضح في بطاقة النظام التي تم إصدارها علنًا، ولم يُظهر قدرات استقلالية طويلة المدى استنادًا إلى تقييمات بديلة وبموافقة من خبرائنا الداخليين، بما في ذلك من مجموعة استشارات السلامة لدينا,” قال المتحدث. وأضاف أن الشركة تنوي توضيح اللغة في إطار الجاهزية الحالي ليعبر بشكل أفضل عن ما تقول إنه نيتها الأصلية، بدلاً من تغيير أي ممارسات داخلية.
ومع ذلك، اعترض بعض الباحثين في مجال السلامة على هذا التفسير. قال ناثان كالڤن، نائب رئيس الشؤون الحكومية والمستشار العام في Encode، في منشور على X: “بدلاً من الاعتراف بعدم اتباع خطتهم أو تحديثها قبل الإصدار، يبدو أن OpenAI تقول إن المعايير كانت غامضة. من قراءة الوثائق ذات الصلة… لا أعتقد أنها غامضة.”
كما تدعي مجموعة ميداس أن OpenAI لا يمكنها إثبات بشكل قاطع أن النموذج يفتقر إلى الاستقلالية المطلوبة للتدابير الإضافية، حيث أن النموذج السابق الأقل تطورًا من الشركة كان قد تصدر المقاييس العالمية لإنجاز المهام بشكل مستقل. وتؤكد المجموعة أنه حتى لو كانت القواعد غير واضحة، كان ينبغي على OpenAI توضيحها قبل إصدار النموذج.
وصف تيلر جونستون، مؤسس مشروع ميداس، الانتهاك المحتمل بأنه “محرج بشكل خاص بالنظر إلى أن الحد الأدنى الذي وضعه قانون SB 53 منخفض جدًا: ببساطة، اعتماد خطة سلامة تطوعية تختارها والتواصل بصراحة عنها، وتعديلها حسب الحاجة، دون انتهاك أو كذب بشأنها.”
إذا تم فتح تحقيق وتأكدت الادعاءات، فإن قانون SB 53 يسمح بفرض غرامات كبيرة على الانتهاكات، قد تصل إلى ملايين الدولارات اعتمادًا على مدى وخامة ومدة عدم الامتثال. وأفاد ممثل عن مكتب المدعي العام في كاليفورنيا لـ فوربس أن القسم “ملتزم بتنفيذ قوانين ولايتنا، بما في ذلك تلك التي تم سنها لزيادة الشفافية والسلامة في مجال الذكاء الاصطناعي الناشئ.” ومع ذلك، قال إن القسم غير قادر على التعليق على التحقيقات المحتملة أو الجارية، سواء بالتأكيد أو النفي.
انضم إلينا في قمة ابتكار بيئة العمل من فوربس في 19-20 مايو 2026 في أتلانتا. لقد حان عصر جديد من الابتكار في بيئة العمل—وتم إعادة كتابة الكتاب القديم. في هذا الحدث الحصري والنشيط، سيجتمع قادة أكثر ابتكارًا في العالم لاستكشاف كيف يتقاطع الذكاء الاصطناعي والبشرية والاستراتيجية لإعادة تعريف مستقبل العمل مرة أخرى. سجل الآن.