OpenAI tampaknya telah melanggar undang-undang keselamatan AI California dengan rilis model terbaru, klaim pengawas

OpenAI diduga melanggar undang-undang baru tentang keselamatan AI di California dengan peluncuran model pengkodean terbaru mereka, menurut tuduhan dari kelompok pengawas AI.

Pelanggaraan ini berpotensi membuat perusahaan menghadapi denda jutaan dolar dan kasus ini dapat menjadi ujian pertama yang menetapkan preseden dari ketentuan undang-undang baru tersebut.

Video Rekomendasi


Kontroversi ini berpusat pada GPT-5.3-Codex, model pengkodean terbaru dari OpenAI, yang dirilis minggu lalu. Model ini merupakan bagian dari upaya OpenAI untuk merebut kembali posisi terdepan dalam pengkodean berbasis AI dan, menurut data benchmark yang dirilis OpenAI, menunjukkan performa yang jauh lebih tinggi dalam tugas pengkodean dibandingkan versi model sebelumnya dari OpenAI maupun pesaing seperti Anthropic. Namun, model ini juga menimbulkan kekhawatiran keamanan siber yang belum pernah terjadi sebelumnya.

CEO Sam Altman mengatakan bahwa model ini adalah yang pertama masuk ke kategori risiko “tinggi” untuk keamanan siber berdasarkan kerangka kesiapan perusahaan, yaitu sistem klasifikasi risiko internal yang digunakan OpenAI untuk peluncuran model. Ini berarti OpenAI secara esensial mengklasifikasikan model sebagai cukup mampu dalam pengkodean sehingga berpotensi memfasilitasi kerusakan siber yang signifikan, terutama jika otomatisasi atau digunakan secara skala besar.

Kelompok pengawas AI, The Midas Project, mengklaim bahwa OpenAI gagal mematuhi komitmen keselamatannya sendiri—yang kini menjadi mengikat secara hukum di bawah undang-undang California—dengan peluncuran model risiko tinggi yang baru ini.

SB 53 California, yang mulai berlaku pada Januari, mewajibkan perusahaan AI besar untuk mempublikasikan dan mematuhi kerangka keselamatan mereka sendiri yang merinci bagaimana mereka akan mencegah risiko bencana—yang didefinisikan sebagai insiden yang menyebabkan lebih dari 50 kematian atau kerusakan properti lebih dari 1 miliar dolar—dari model mereka. Selain itu, undang-undang ini melarang perusahaan-perusahaan tersebut membuat pernyataan menyesatkan tentang kepatuhan mereka.

Kerangka keselamatan OpenAI memerlukan perlindungan khusus untuk model dengan risiko keamanan siber tinggi yang dirancang untuk mencegah AI menjadi tidak terkendali dan melakukan hal-hal seperti bertindak menipu, merusak penelitian keselamatan, atau menyembunyikan kemampuan sebenarnya. Namun, perusahaan tidak menerapkan perlindungan ini sebelum meluncurkan GPT-5.3-Codex.

OpenAI menyatakan bahwa hal tersebut karena kata-kata dalam kerangka tersebut “ambiguous” (ambigu). Dalam laporan keselamatan yang menyertai model, OpenAI mengatakan bahwa perlindungan hanya diperlukan ketika risiko siber tinggi terjadi “bersamaan dengan” otonomi jangka panjang—kemampuan untuk beroperasi secara mandiri dalam jangka waktu yang lama. Karena perusahaan percaya bahwa GPT-5.3-Codex tidak memiliki otonomi tersebut, mereka mengatakan perlindungan tidak diperlukan.

Juru bicara OpenAI mengatakan kepada Fortune bahwa perusahaan “percaya diri dalam kepatuhan kami terhadap undang-undang keselamatan frontier, termasuk SB53.”

“GPT-5.3-Codex telah menyelesaikan seluruh proses pengujian dan tata kelola kami, sebagaimana dijelaskan dalam sistem kartu yang dirilis secara publik, dan tidak menunjukkan kemampuan otonomi jangka panjang berdasarkan evaluasi proxy dan dikonfirmasi oleh penilaian ahli internal, termasuk dari Safety Advisory Group kami,” kata juru bicara tersebut. Mereka mengatakan perusahaan bermaksud memperjelas bahasa dalam Kerangka Kesiapan saat ini agar lebih baik mengkomunikasikan apa yang dimaksudkan sebagai niat awal perusahaan, bukan mengubah praktik internal.

Namun, beberapa peneliti keselamatan membantah interpretasi ini. Nathan Calvin, Wakil Presiden Urusan Negara dan Penasihat Umum di Encode, mengatakan dalam sebuah posting di X bahwa: “Alih-alih mengakui bahwa mereka tidak mengikuti rencana mereka atau memperbaruinya sebelum peluncuran, tampaknya OpenAI mengatakan bahwa kriterianya ambigu. Dari membaca dokumen terkait… saya tidak merasa itu ambigu.”

The Midas Project juga mengklaim bahwa OpenAI tidak dapat membuktikan secara pasti bahwa model tersebut tidak memiliki otonomi yang diperlukan untuk langkah-langkah tambahan tersebut, karena model sebelumnya yang kurang canggih dari perusahaan sudah menempati peringkat tertinggi secara global dalam penyelesaian tugas otomatis. Kelompok ini berargumen bahwa meskipun aturan tidak jelas, OpenAI seharusnya telah memperjelasnya sebelum merilis model.

Tyler Johnston, pendiri Midas Project, menyebut pelanggaran potensial ini “terlalu memalukan mengingat batas minimal yang ditetapkan SB 53: cukup dengan mengadopsi rencana keselamatan sukarela pilihan Anda dan berkomunikasi secara jujur tentangnya, mengubahnya sesuai kebutuhan, tetapi tidak melanggar atau berbohong tentangnya.”

Jika penyelidikan dibuka dan tuduhan terbukti benar, SB 53 memungkinkan penalti besar untuk pelanggaran, yang berpotensi mencapai jutaan dolar tergantung pada tingkat keparahan dan durasi ketidakpatuhan. Seorang perwakilan dari Kantor Jaksa Agung California mengatakan kepada Fortune bahwa departemen tersebut “berkomitmen menegakkan hukum negara bagian kami, termasuk yang diberlakukan untuk meningkatkan transparansi dan keselamatan di ruang AI yang sedang berkembang.” Namun, mereka mengatakan bahwa departemen tersebut tidak dapat berkomentar, bahkan untuk mengonfirmasi atau membantah, potensi atau penyelidikan yang sedang berlangsung.

**Bergabunglah dengan kami di Fortune Workplace Innovation Summit **19–20 Mei 2026, di Atlanta. Era inovasi tempat kerja berikutnya telah tiba—dan buku panduan lama sedang ditulis ulang. Dalam acara eksklusif dan penuh energi ini, para pemimpin paling inovatif di dunia akan berkumpul untuk menjelajahi bagaimana AI, manusia, dan strategi bersatu kembali untuk mendefinisikan masa depan kerja. Daftar sekarang.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan

Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)