Model AI Frontier tidak lagi sekadar membantu insinyur menulis kode lebih cepat atau mengotomatisasi tugas rutin. Mereka semakin mampu mendeteksi kesalahan mereka sendiri.
Video Rekomendasi
Anthropic mengatakan bahwa model terbarunya, Claude Opus 4.6, unggul dalam menemukan jenis kelemahan perangkat lunak yang mendasari serangan siber besar. Menurut laporan dari Tim Merah Frontier perusahaan, selama pengujian, Opus 4.6 mengidentifikasi lebih dari 500 kerentanan zero-day yang sebelumnya tidak diketahui—cacat yang tidak diketahui oleh pembuat perangkat lunak, atau pihak yang bertanggung jawab untuk memperbaiki atau menambalnya—di berbagai perpustakaan perangkat lunak sumber terbuka. Yang menarik, meskipun peneliti memberi model sebuah tujuan—menemukan celah keamanan dalam perangkat lunak tertentu—model tersebut menentukan metode sendiri untuk menyelesaikan tugas tersebut, menurut Logan Graham, kepala Tim Merah Frontier Anthropic.
Anthropic mengatakan bahwa “hasil ini menunjukkan bahwa model bahasa dapat memberikan nilai nyata di atas alat penemuan yang sudah ada,” tetapi mengakui bahwa kemampuan ini juga secara inheren “dual use.”
Kemampuan yang sama yang membantu perusahaan menemukan dan memperbaiki celah keamanan dapat dengan mudah digunakan sebagai senjata oleh penyerang untuk menemukan dan mengeksploitasi kerentanan sebelum pembela dapat menemukannya. Sebuah model AI yang dapat secara otomatis mengidentifikasi eksploit zero-day dalam perangkat lunak yang digunakan secara luas dapat mempercepat perlombaan keamanan siber—berpotensi menggeser keuntungan ke pihak yang bertindak paling cepat.
Graham mengatakan kepada Axios bahwa perusahaan memandang keamanan siber sebagai kompetisi antara serangan dan pertahanan, dan ingin memastikan bahwa para pembela mendapatkan akses ke alat ini terlebih dahulu.
Untuk mengelola sebagian risiko tersebut, Anthropic sedang menerapkan sistem deteksi baru yang memantau aktivitas internal Claude saat menghasilkan respons, menggunakan apa yang disebut perusahaan sebagai “probe” untuk menandai potensi penyalahgunaan secara real-time. Perusahaan juga mengatakan bahwa mereka memperluas kemampuan penegakan hukumnya, termasuk kemampuan untuk memblokir lalu lintas yang diidentifikasi sebagai berbahaya. Anthropic mengakui bahwa pendekatan ini akan menimbulkan hambatan bagi peneliti keamanan yang sah dan pekerjaan pertahanan, dan berkomitmen untuk bekerja sama dengan komunitas keamanan untuk mengatasi tantangan tersebut. Perlindungan ini, kata perusahaan, merupakan “langkah maju yang berarti” dalam mendeteksi dan merespons penyalahgunaan secara cepat, meskipun pekerjaan ini masih berlangsung.
Sebaliknya, OpenAI mengambil pendekatan yang lebih hati-hati dengan model pengkodean terbarunya, GPT-5.3-Codex, yang juga dirilis pada hari Kamis. Perusahaan menekankan bahwa meskipun model ini meningkatkan performa pengkodean, risiko keamanan siber yang serius juga datang bersamanya. CEO OpenAI, Sam Altman, mengatakan dalam sebuah posting di X bahwa GPT-5.3-Codex adalah model pertama yang diberi peringkat “tinggi” untuk risiko keamanan siber berdasarkan kerangka kesiapsiagaan internal perusahaan.
Akibatnya, OpenAI meluncurkan GPT-5.3-Codex dengan kontrol yang lebih ketat. Meskipun model ini tersedia untuk pengguna berbayar ChatGPT untuk tugas pengembangan sehari-hari, perusahaan menunda akses penuh API dan membatasi penggunaan berisiko tinggi yang dapat memungkinkan otomatisasi secara skala besar. Aplikasi yang lebih sensitif sedang dibatasi dengan perlindungan tambahan, termasuk program akses terpercaya untuk profesional keamanan yang telah diverifikasi. OpenAI mengatakan dalam sebuah posting blog yang menyertai peluncuran bahwa mereka belum memiliki “bukti pasti” bahwa model ini dapat sepenuhnya mengotomatisasi serangan siber, tetapi mereka mengambil pendekatan pencegahan dengan menerapkan apa yang mereka sebut sebagai tumpukan keamanan siber paling komprehensif hingga saat ini, termasuk pemantauan yang ditingkatkan, pelatihan keamanan, dan mekanisme penegakan yang didukung oleh intelijen ancaman.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Model terbaru dari Anthropic unggul dalam menemukan kerentanan keamanan—tetapi menimbulkan risiko keamanan siber yang baru
Model AI Frontier tidak lagi sekadar membantu insinyur menulis kode lebih cepat atau mengotomatisasi tugas rutin. Mereka semakin mampu mendeteksi kesalahan mereka sendiri.
Video Rekomendasi
Anthropic mengatakan bahwa model terbarunya, Claude Opus 4.6, unggul dalam menemukan jenis kelemahan perangkat lunak yang mendasari serangan siber besar. Menurut laporan dari Tim Merah Frontier perusahaan, selama pengujian, Opus 4.6 mengidentifikasi lebih dari 500 kerentanan zero-day yang sebelumnya tidak diketahui—cacat yang tidak diketahui oleh pembuat perangkat lunak, atau pihak yang bertanggung jawab untuk memperbaiki atau menambalnya—di berbagai perpustakaan perangkat lunak sumber terbuka. Yang menarik, meskipun peneliti memberi model sebuah tujuan—menemukan celah keamanan dalam perangkat lunak tertentu—model tersebut menentukan metode sendiri untuk menyelesaikan tugas tersebut, menurut Logan Graham, kepala Tim Merah Frontier Anthropic.
Anthropic mengatakan bahwa “hasil ini menunjukkan bahwa model bahasa dapat memberikan nilai nyata di atas alat penemuan yang sudah ada,” tetapi mengakui bahwa kemampuan ini juga secara inheren “dual use.”
Kemampuan yang sama yang membantu perusahaan menemukan dan memperbaiki celah keamanan dapat dengan mudah digunakan sebagai senjata oleh penyerang untuk menemukan dan mengeksploitasi kerentanan sebelum pembela dapat menemukannya. Sebuah model AI yang dapat secara otomatis mengidentifikasi eksploit zero-day dalam perangkat lunak yang digunakan secara luas dapat mempercepat perlombaan keamanan siber—berpotensi menggeser keuntungan ke pihak yang bertindak paling cepat.
Graham mengatakan kepada Axios bahwa perusahaan memandang keamanan siber sebagai kompetisi antara serangan dan pertahanan, dan ingin memastikan bahwa para pembela mendapatkan akses ke alat ini terlebih dahulu.
Untuk mengelola sebagian risiko tersebut, Anthropic sedang menerapkan sistem deteksi baru yang memantau aktivitas internal Claude saat menghasilkan respons, menggunakan apa yang disebut perusahaan sebagai “probe” untuk menandai potensi penyalahgunaan secara real-time. Perusahaan juga mengatakan bahwa mereka memperluas kemampuan penegakan hukumnya, termasuk kemampuan untuk memblokir lalu lintas yang diidentifikasi sebagai berbahaya. Anthropic mengakui bahwa pendekatan ini akan menimbulkan hambatan bagi peneliti keamanan yang sah dan pekerjaan pertahanan, dan berkomitmen untuk bekerja sama dengan komunitas keamanan untuk mengatasi tantangan tersebut. Perlindungan ini, kata perusahaan, merupakan “langkah maju yang berarti” dalam mendeteksi dan merespons penyalahgunaan secara cepat, meskipun pekerjaan ini masih berlangsung.
Sebaliknya, OpenAI mengambil pendekatan yang lebih hati-hati dengan model pengkodean terbarunya, GPT-5.3-Codex, yang juga dirilis pada hari Kamis. Perusahaan menekankan bahwa meskipun model ini meningkatkan performa pengkodean, risiko keamanan siber yang serius juga datang bersamanya. CEO OpenAI, Sam Altman, mengatakan dalam sebuah posting di X bahwa GPT-5.3-Codex adalah model pertama yang diberi peringkat “tinggi” untuk risiko keamanan siber berdasarkan kerangka kesiapsiagaan internal perusahaan.
Akibatnya, OpenAI meluncurkan GPT-5.3-Codex dengan kontrol yang lebih ketat. Meskipun model ini tersedia untuk pengguna berbayar ChatGPT untuk tugas pengembangan sehari-hari, perusahaan menunda akses penuh API dan membatasi penggunaan berisiko tinggi yang dapat memungkinkan otomatisasi secara skala besar. Aplikasi yang lebih sensitif sedang dibatasi dengan perlindungan tambahan, termasuk program akses terpercaya untuk profesional keamanan yang telah diverifikasi. OpenAI mengatakan dalam sebuah posting blog yang menyertai peluncuran bahwa mereka belum memiliki “bukti pasti” bahwa model ini dapat sepenuhnya mengotomatisasi serangan siber, tetapi mereka mengambil pendekatan pencegahan dengan menerapkan apa yang mereka sebut sebagai tumpukan keamanan siber paling komprehensif hingga saat ini, termasuk pemantauan yang ditingkatkan, pelatihan keamanan, dan mekanisme penegakan yang didukung oleh intelijen ancaman.