OpenAI, за повідомленнями з боку групи з моніторингу штучного інтелекту, можливо, порушила новий закон Каліфорнії про безпеку ШІ з випуском своєї останньої моделі кодування.
Порушення потенційно може призвести до штрафів у мільйони доларів, а справа може стати прецедентом і першим тестом положень нового закону.
Рекомендуване відео
Спір виникає навколо GPT-5.3-Codex, найновішої моделі кодування від OpenAI, яка була випущена минулого тижня. Модель є частиною зусиль OpenAI відновити лідерство у сфері штучного інтелекту, що підтримує кодування, і, згідно з даними бенчмарків, які OpenAI оприлюднила, показує значно вищу продуктивність у завданнях кодування порівняно з попередніми версіями моделей від OpenAI та конкурентів, таких як Anthropic. Однак ця модель також викликала безпрецедентні побоювання щодо кібербезпеки.
Генеральний директор Сам Альтман заявив, що модель стала першою, яка потрапила до категорії високого ризику щодо кібербезпеки за внутрішньою системою класифікації ризиків OpenAI, яка використовується для випуску моделей. Це означає, що OpenAI фактично класифікує модель як здатну до кодування, що потенційно може спричинити значну кіберзагрозу, особливо якщо її автоматизовано або використовують у масштабі.
Група з моніторингу штучного інтелекту The Midas Project стверджує, що OpenAI не дотрималася своїх власних зобов’язань щодо безпеки — які тепер є юридично обов’язковими відповідно до закону Каліфорнії — з запуском нової високоризикової моделі.
Закон Каліфорнії SB 53, який набрав чинності у січні, вимагає від великих компаній, що працюють з ШІ, публікувати та дотримуватися власних рамкових програм безпеки, у яких детально описано, як вони запобігатимуть катастрофічним ризикам — визначеним як інциденти, що спричинили понад 50 смертей або понад 1 мільярд доларів збитків майну — від своїх моделей. Також він забороняє цим компаніям робити оманливі заяви щодо відповідності.
Рамкова програма безпеки OpenAI вимагає особливих заходів безпеки для моделей із високим ризиком кібербезпеки, які мають запобігти зловмисному використанню ШІ, наприклад, діяти обманним чином, саботувати дослідження безпеки або приховувати свої справжні можливості. Однак компанія не впровадила ці заходи перед запуском GPT-5.3-Codex.
OpenAI стверджує, що це через те, що формулювання у рамковій програмі є «неоднозначним». У супровідному звіті з безпеки, що супроводжує модель, OpenAI зазначила, що заходи безпеки потрібні лише тоді, коли високий кіберризик виникає «у зв’язку з» довгостроковою автономією — здатністю працювати незалежно протягом тривалого часу. Оскільки компанія вважає, що GPT-5.3-Codex не має такої автономії, вони стверджують, що заходи безпеки не були необхідні.
Представник OpenAI повідомив Fortune, що компанія «впевнена у своєй відповідності передовим законам безпеки, включаючи SB53».
«GPT-5.3-Codex пройшов повний процес тестування та управління, як описано у публічно оприлюдненій системній картці, і не демонструє можливостей довгострокової автономії на основі проксі-оцінок, підтверджених внутрішніми експертами, включаючи нашу Групу з безпеки», — сказав представник. Вони додали, що компанія має намір уточнити формулювання у поточній Рамковій програмі підготовки, щоб краще донести свою початкову ідею, а не змінювати внутрішню практику.
Однак деякі дослідники безпеки оскаржують цю інтерпретацію. Натан Калвін, віце-президент з державних справ і генеральний юрист Encode, у пості на X зазначив: «Замість того, щоб визнати, що вони не дотрималися свого плану або не оновили його перед випуском, здається, OpenAI стверджує, що критерії були неоднозначними. Зчитуючи відповідні документи… мені це не здається неоднозначним.»
Група The Midas Project також стверджує, що OpenAI не може однозначно довести, що модель позбавлена необхідної автономії для додаткових заходів, оскільки їхня попередня менш просунута модель вже перевищила світові бенчмарки щодо автономного виконання завдань. Група аргументує, що навіть якщо правила були нечіткими, OpenAI мала їх уточнити перед випуском моделі.
Засновник Midas Project Тайлер Джонстон назвав потенційне порушення «особливо прикрим, враховуючи низький рівень, який встановлює SB 53: фактично просто прийняти добровільний план безпеки за власним вибором і чесно про нього повідомляти, змінюючи його за потреби, але не порушуючи або неправдиво його представляючи».
Якщо розпочнуть розслідування і звинувачення підтвердяться, SB 53 передбачає значні штрафи за порушення, що можуть сягати мільйонів доларів залежно від серйозності та тривалості порушень. Представник офісу Генерального прокурора Каліфорнії повідомив Fortune, що департамент «зобов’язаний дотримуватися законів нашої держави, включаючи ті, що спрямовані на підвищення прозорості та безпеки у сфері нових технологій ШІ». Однак вони додали, що не можуть коментувати, навіть підтверджувати або заперечувати, потенційні або поточні розслідування.
Приєднуйтесь до нас на Саміті інновацій у сфері праці Fortune 19–20 травня 2026 року в Атланті. Наступна ера інновацій у роботі вже тут — і старий сценарій переписується. На цьому ексклюзивному, енергійному заході найінноваційніші лідери світу зберуться, щоб дослідити, як ШІ, людство і стратегія знову змінюють майбутнє роботи. Реєструйтеся зараз.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
OpenAI, здається, порушила закон Каліфорнії про безпеку штучного інтелекту з останнім випуском моделі, стверджує наглядова організація
OpenAI, за повідомленнями з боку групи з моніторингу штучного інтелекту, можливо, порушила новий закон Каліфорнії про безпеку ШІ з випуском своєї останньої моделі кодування.
Порушення потенційно може призвести до штрафів у мільйони доларів, а справа може стати прецедентом і першим тестом положень нового закону.
Рекомендуване відео
Спір виникає навколо GPT-5.3-Codex, найновішої моделі кодування від OpenAI, яка була випущена минулого тижня. Модель є частиною зусиль OpenAI відновити лідерство у сфері штучного інтелекту, що підтримує кодування, і, згідно з даними бенчмарків, які OpenAI оприлюднила, показує значно вищу продуктивність у завданнях кодування порівняно з попередніми версіями моделей від OpenAI та конкурентів, таких як Anthropic. Однак ця модель також викликала безпрецедентні побоювання щодо кібербезпеки.
Генеральний директор Сам Альтман заявив, що модель стала першою, яка потрапила до категорії високого ризику щодо кібербезпеки за внутрішньою системою класифікації ризиків OpenAI, яка використовується для випуску моделей. Це означає, що OpenAI фактично класифікує модель як здатну до кодування, що потенційно може спричинити значну кіберзагрозу, особливо якщо її автоматизовано або використовують у масштабі.
Група з моніторингу штучного інтелекту The Midas Project стверджує, що OpenAI не дотрималася своїх власних зобов’язань щодо безпеки — які тепер є юридично обов’язковими відповідно до закону Каліфорнії — з запуском нової високоризикової моделі.
Закон Каліфорнії SB 53, який набрав чинності у січні, вимагає від великих компаній, що працюють з ШІ, публікувати та дотримуватися власних рамкових програм безпеки, у яких детально описано, як вони запобігатимуть катастрофічним ризикам — визначеним як інциденти, що спричинили понад 50 смертей або понад 1 мільярд доларів збитків майну — від своїх моделей. Також він забороняє цим компаніям робити оманливі заяви щодо відповідності.
Рамкова програма безпеки OpenAI вимагає особливих заходів безпеки для моделей із високим ризиком кібербезпеки, які мають запобігти зловмисному використанню ШІ, наприклад, діяти обманним чином, саботувати дослідження безпеки або приховувати свої справжні можливості. Однак компанія не впровадила ці заходи перед запуском GPT-5.3-Codex.
OpenAI стверджує, що це через те, що формулювання у рамковій програмі є «неоднозначним». У супровідному звіті з безпеки, що супроводжує модель, OpenAI зазначила, що заходи безпеки потрібні лише тоді, коли високий кіберризик виникає «у зв’язку з» довгостроковою автономією — здатністю працювати незалежно протягом тривалого часу. Оскільки компанія вважає, що GPT-5.3-Codex не має такої автономії, вони стверджують, що заходи безпеки не були необхідні.
Представник OpenAI повідомив Fortune, що компанія «впевнена у своєй відповідності передовим законам безпеки, включаючи SB53».
«GPT-5.3-Codex пройшов повний процес тестування та управління, як описано у публічно оприлюдненій системній картці, і не демонструє можливостей довгострокової автономії на основі проксі-оцінок, підтверджених внутрішніми експертами, включаючи нашу Групу з безпеки», — сказав представник. Вони додали, що компанія має намір уточнити формулювання у поточній Рамковій програмі підготовки, щоб краще донести свою початкову ідею, а не змінювати внутрішню практику.
Однак деякі дослідники безпеки оскаржують цю інтерпретацію. Натан Калвін, віце-президент з державних справ і генеральний юрист Encode, у пості на X зазначив: «Замість того, щоб визнати, що вони не дотрималися свого плану або не оновили його перед випуском, здається, OpenAI стверджує, що критерії були неоднозначними. Зчитуючи відповідні документи… мені це не здається неоднозначним.»
Група The Midas Project також стверджує, що OpenAI не може однозначно довести, що модель позбавлена необхідної автономії для додаткових заходів, оскільки їхня попередня менш просунута модель вже перевищила світові бенчмарки щодо автономного виконання завдань. Група аргументує, що навіть якщо правила були нечіткими, OpenAI мала їх уточнити перед випуском моделі.
Засновник Midas Project Тайлер Джонстон назвав потенційне порушення «особливо прикрим, враховуючи низький рівень, який встановлює SB 53: фактично просто прийняти добровільний план безпеки за власним вибором і чесно про нього повідомляти, змінюючи його за потреби, але не порушуючи або неправдиво його представляючи».
Якщо розпочнуть розслідування і звинувачення підтвердяться, SB 53 передбачає значні штрафи за порушення, що можуть сягати мільйонів доларів залежно від серйозності та тривалості порушень. Представник офісу Генерального прокурора Каліфорнії повідомив Fortune, що департамент «зобов’язаний дотримуватися законів нашої держави, включаючи ті, що спрямовані на підвищення прозорості та безпеки у сфері нових технологій ШІ». Однак вони додали, що не можуть коментувати, навіть підтверджувати або заперечувати, потенційні або поточні розслідування.
Приєднуйтесь до нас на Саміті інновацій у сфері праці Fortune 19–20 травня 2026 року в Атланті. Наступна ера інновацій у роботі вже тут — і старий сценарій переписується. На цьому ексклюзивному, енергійному заході найінноваційніші лідери світу зберуться, щоб дослідити, як ШІ, людство і стратегія знову змінюють майбутнє роботи. Реєструйтеся зараз.