Agen AI dari Anthropic dan OpenAI tidak membunuh SaaS—tetapi pemain perangkat lunak incumbent tidak bisa tidur nyenyak

Halo dan selamat datang di Eye on AI…Dalam edisi ini: ‘Kiamat SaaS’ bukan sekarang…OpenAI dan Anthropic keduanya meluncurkan model baru dengan implikasi keamanan siber yang besar…Gedung Putih mempertimbangkan pembatasan sukarela terhadap pembangunan pusat data untuk melindungi konsumen dari kejutan tagihan listrik…mengapa dua metrik AI yang sering dikutip kemungkinan besar keduanya salah…dan mengapa kita semakin sulit membedakan apakah model AI aman.
Investor perlu duduk santai. Itu kesimpulan saya setelah menyaksikan fluktuasi pasar minggu lalu. Khususnya, investor akan bijaksana jika mencari psikoanalis Kleinian. Sebab mereka tampaknya terjebak dalam apa yang kemungkinan besar akan diidentifikasi oleh seorang Kleinian sebagai “posisi paranoid-schizoid”—berayun liar antara melihat dampak AI pada vendor perangkat lunak mapan sebagai “semua baik” atau “semua buruk.” Minggu lalu, mereka berayun ke “semua buruk” dan, menurut perkiraan Goldman Sachs, menghapus sekitar 2 triliun dolar dari nilai pasar saham. Sejauh ini minggu ini, semuanya kembali baik, dan indeks S&P 500 rebound mendekati rekor tertinggi (meskipun vendor perangkat lunak SaaS hanya mengalami kenaikan modest dan kekacauan mungkin telah menyebabkan setidaknya satu CEO mengundurkan diri: CEO Workday Carl Eschenbach mengumumkan akan mengundurkan diri dan digantikan oleh salah satu pendiri dan mantan CEO perusahaan, Aneel Bhusri.) Tapi ada banyak nuansa yang hilang dari perhatian pasar. Investor suka narasi yang sederhana. Perlombaan AI perusahaan saat ini lebih mirip novel Rusia.

Dalam berbagai waktu selama dua tahun terakhir, pasar keuangan telah menghukum saham perusahaan SaaS karena tampaknya model dasar AI mungkin memungkinkan bisnis untuk “mengkode vibe” perangkat lunak khusus yang bisa menggantikan Salesforce atau Workday atau ServiceNow. Minggu lalu, penyebabnya tampaknya adalah kesadaran bahwa agen AI yang semakin mampu dari perusahaan seperti Anthropic, yang mulai meluncurkan plugin untuk produk Claude Cowork yang ditujukan ke industri vertikal tertentu, mungkin merugikan perusahaan SaaS dalam dua cara: pertama, penawaran agen dari perusahaan model dasar bersaing langsung dengan perangkat lunak agen AI dari raksasa SaaS. Kedua, dengan mengotomatisasi alur kerja, agen-agen ini berpotensi mengurangi kebutuhan akan karyawan manusia, sehingga perusahaan SaaS tidak bisa lagi mengenakan biaya lisensi sebanyak sebelumnya. Jadi, vendor SaaS tertekan dari dua sisi.

Namun, tidak jelas bahwa semua ini benar—atau setidaknya, hanya sebagian benar.

Rekomendasi Video


Agen AI bukan makan habis perangkat lunak SaaS, mereka menggunakannya

Pertama, sangat kecil kemungkinannya, bahkan saat agen pengkodean AI menjadi semakin mampu, bahwa sebagian besar perusahaan Fortune 500 akan ingin membuat perangkat lunak manajemen hubungan pelanggan khusus mereka sendiri atau perangkat lunak sumber daya manusia atau perangkat lunak manajemen rantai pasokan. Kita tidak akan melihat pembalikan lengkap dari 50 tahun pengembangan perangkat lunak perusahaan sebelumnya. Jika Anda pembuat widget, Anda sebenarnya tidak ingin terlibat dalam bisnis membuat, menjalankan, dan memelihara perangkat lunak ERP, meskipun proses tersebut sebagian besar otomatis oleh insinyur perangkat lunak AI. Masih terlalu mahal dan terlalu menyibukkan sumber daya insinyur yang terbatas—meskipun jumlah tenaga kerja manusia yang dibutuhkan jauh lebih sedikit dibanding lima tahun lalu. Jadi permintaan terhadap produk inti tradisional perusahaan SaaS kemungkinan akan tetap ada.

Adapun kekhawatiran baru tentang agen AI dari pembuat model dasar yang mencuri pasar untuk penawaran agen AI perusahaan SaaS sendiri, ada sedikit hal yang perlu dikhawatirkan oleh investor SaaS. Bisa jadi Anthropic, OpenAI, dan Google akan mendominasi lapisan teratas dari tumpukan AI agen—membangun platform orkestrasi agen yang memungkinkan perusahaan besar membangun, menjalankan, dan mengelola alur kerja yang kompleks. Itulah yang coba dilakukan OpenAI dengan peluncuran minggu lalu dari platform AI agenik barunya untuk perusahaan bernama Frontier.

Perusahaan SaaS mengatakan mereka tahu cara terbaik menjalankan lapisan orkestrasi karena mereka sudah terbiasa menangani keamanan siber, kontrol akses, dan kekhawatiran tata kelola, dan karena, dalam banyak kasus, mereka sudah memiliki data yang diperlukan agen AI untuk mengakses dan menjalankan tugasnya. Selain itu, karena sebagian besar alur kerja bisnis tidak akan sepenuhnya otomatis, perusahaan SaaS merasa mereka lebih mampu melayani tenaga kerja hibrida, di mana manusia dan agen AI bekerja sama dalam perangkat lunak dan alur kerja yang sama. Mereka mungkin benar. Tapi mereka harus membuktikannya sebelum OpenAI atau Anthropic menunjukkan bahwa mereka bisa melakukan pekerjaan ini sama baik atau lebih baik.

Perusahaan model dasar juga memiliki peluang untuk mendominasi pasar agen AI. Claude Cowork dari Anthropic adalah ancaman serius bagi Salesforce dan Microsoft, tetapi bukan ancaman yang benar-benar eksistensial. Ini tidak menggantikan kebutuhan perangkat lunak SaaS sepenuhnya, karena Claude menggunakan perangkat lunak ini sebagai alat untuk menyelesaikan tugas. Tapi ini tentu saja berarti beberapa pelanggan mungkin lebih memilih menggunakan Claude Cowork daripada meningkatkan ke Agentforce dari Salesforce atau Microsoft 365 Copilot. Itu akan membatasi potensi pertumbuhan SaaS, seperti yang dikemukakan oleh artikel dari Wall Street Journal oleh Dan Gallagher.

Vendor SaaS mengubah model bisnis mereka

Adapun ancaman terhadap model bisnis tradisional SaaS yang menjual lisensi tempat duduk, perusahaan SaaS menyadari risiko ini dan mulai mengatasinya. Salesforce telah mempelopori apa yang disebutnya “Perjanjian Lisensi Perusahaan Agenik” (AELA) yang pada dasarnya menawarkan pelanggan akses tak terbatas dengan harga tetap ke Agentforce. ServiceNow beralih ke model harga berbasis konsumsi dan nilai untuk beberapa penawaran agen AI-nya. Microsoft juga memperkenalkan elemen harga berbasis konsumsi bersamaan dengan model per pengguna per bulan yang biasa mereka gunakan untuk produk Microsoft Copilot Studio, yang memungkinkan pelanggan membangun agen Microsoft Copilot. Jadi, ancaman ini bukanlah ancaman eksistensial, tetapi bisa membatasi pertumbuhan dan margin SaaS. Sebab, salah satu rahasia kotor industri SaaS adalah, tidak diragukan lagi, sama seperti keanggotaan gym dan bisnis langganan lainnya—pelanggan terbaik seringkali adalah mereka yang membayar langganan yang tidak mereka gunakan. Kemungkinan besar hal ini tidak akan terjadi dalam model bisnis lain ini.

Jadi SaaS belum selesai. Tapi juga belum pasti akan berkembang pesat. Nasib berbagai perusahaan dalam kategori ini kemungkinan akan berbeda-beda. Seperti yang dikatakan beberapa analis Wall Street minggu lalu, akan ada pemenang dan pecundang. Tapi masih terlalu dini untuk menyebut siapa mereka. Untuk saat ini, investor perlu hidup dengan ketidakpastian itu.

Dengan itu, berikut berita AI lainnya.

Jeremy Kahn
[email protected]
@jeremyakahn

FORTUNE TENTANG AI

Pertarungan iklan Super Bowl antara OpenAI dan Anthropic menandai kita telah memasuki era “omongan kasar” AI—dan perlombaan untuk menguasai agen AI semakin memanas—oleh Sharon Goldman

Model terbaru Anthropic unggul dalam menemukan kerentanan keamanan—tapi menimbulkan risiko keamanan siber baru—oleh Beatrice Nolan

Model baru OpenAI melompat maju dalam kemampuan pengkodean—tapi menimbulkan risiko keamanan siber yang belum pernah terjadi sebelumnya—oleh Sharon Goldman

Pangsa pasar ChatGPT menurun saat Google dan pesaingnya menutup jarak, menurut data pelacak aplikasi—oleh Beatrice Nolan

BERITA AI

AI menyebabkan ‘peningkatan intensitas’ kerja bagi karyawan individu, temuan studi. Sebuah studi delapan bulan oleh dua peneliti di Universitas California Berkeley menemukan bahwa alih-alih mengurangi beban kerja, alat AI generatif justru memperkuatnya. Sistem AI mempercepat waktu penyelesaian tugas tetapi juga memperluas volume dan kecepatan output yang diharapkan. Karyawan yang dilengkapi AI tidak hanya menyelesaikan pekerjaan lebih cepat tetapi juga mengambil tanggung jawab yang lebih luas, memperpanjang jam kerja, dan mengalami peningkatan beban kognitif dari mengelola, meninjau, dan mengoreksi output AI, sehingga membaurkan batas antara kerja dan waktu istirahat. Penelitian ini menantang anggapan umum bahwa AI akan mempermudah hidup pekerja pengetahuan, malah menunjukkan bahwa otomatisasi sering kali meningkatkan tuntutan dan kelelahan. Baca lebih lengkap dari Harvard Business Review di sini.

Gedung Putih mempertimbangkan pembatasan sukarela terhadap rencana ekspansi pusat data. Pemerintahan Trump sedang mempertimbangkan kesepakatan sukarela dengan perusahaan teknologi besar untuk memastikan pusat data tidak meningkatkan tagihan listrik ritel, membebani sumber daya air, dan merusak keandalan jaringan listrik. Proposal ini, yang masih dalam finalisasi, akan meminta perusahaan untuk menanggung biaya infrastruktur dan membatasi dampak energi lokal dari fasilitas mereka, dan mengikuti keluhan di beberapa daerah bahwa pusat data menyebabkan lonjakan besar dalam tagihan listrik untuk konsumen. Baca lebih lengkap dari Politico di sini.

Amazon berencana membuat pasar konten bagi penerbit untuk menjual ke perusahaan AI. Menurut The Information, yang mengutip sumber yang akrab dengan rencana tersebut. Langkah ini muncul karena penerbit dan perusahaan AI berselisih tentang bagaimana konten harus dilisensikan dan dibayar, di tengah kekhawatiran penerbit bahwa pencarian dan alat obrolan berbasis AI mengikis lalu lintas dan pendapatan iklan. Cloudflare dan Akamai meluncurkan upaya pasar serupa tahun lalu. Microsoft menguji versi sendiri dan minggu lalu meluncurkannya secara lebih luas. Tapi sejauh ini, belum jelas berapa banyak perusahaan AI yang membeli di pasar ini dan dalam volume berapa. Beberapa penerbit besar telah menandatangani kesepakatan khusus bernilai jutaan dolar per tahun dengan OpenAI, Anthropic, dan lainnya.

Goldman Sachs bekerja sama dengan Anthropic untuk pekerjaan akuntansi dan kepatuhan. Bank investasi ini bekerja sama dengan Anthropic untuk mengerahkan agen otonom berbasis Claude untuk mengotomatisasi pekerjaan bervolume tinggi dan berbasis aturan seperti akuntansi perdagangan dan onboarding klien, setelah enam bulan pengembangan bersama, lapor CNBC. Bank mengatakan tujuannya adalah efisiensi, mempercepat proses sambil menjaga jumlah tenaga kerja tetap rendah seiring pertumbuhan volume bisnis, bukan pemutusan hubungan kerja jangka pendek. Eksekutif mengatakan mereka terkejut dengan kemampuan Claude dalam menangani tugas akuntansi dan kepatuhan yang kompleks, memperkuat pandangan bahwa AI dapat melampaui pengkodean dan masuk ke fungsi inti back-office.

PENELITIAN AI TERKINI

Membantah dua metrik AI yang populer karena alasan berlawanan. Melanjutkan tema dalam esai utama buletin hari ini, saya ingin menyoroti dua postingan buletin terbaru. Masing-masing membantah metrik populer yang mendapatkan banyak perhatian dalam diskusi tentang AI dan dampaknya terhadap perusahaan. Salah satunya digunakan untuk membesar-besarkan kemajuan AI; yang lain untuk mengklaim AI tidak berdampak banyak sama sekali.

Pertama, menulis di buletin AI The Transformer dalam sebuah posting yang diadaptasi dari blognya sendiri, Nathan Witkin membongkar METR yang berpengaruh yang mengklaim menunjukkan kemampuan AI “menggandakan setiap 7 bulan.” Witkin berpendapat bahwa baseline manusia sangat bermasalah: tugas diselesaikan oleh sampel kecil dan tidak mewakili dari insinyur yang direkrut dari jaringan METR sendiri, dibayar per jam (menginsentifkan penyelesaian yang lebih lambat), dan sering bekerja di luar keahlian mereka. Data METR sendiri menunjukkan insinyurnya menyelesaikan tugas 5-18 kali lebih cepat daripada baseline tersebut. Sementara itu, pada tugas yang paling realistis dan “berantakan,” tidak ada model yang mencapai tingkat keberhasilan lebih dari 30%.

Kemudian, Azeem Azhar dalam buletin Exponential View-nya membongkar studi “MIT” yang terkenal itu yang mengklaim bahwa “95% organisasi tidak mendapatkan pengembalian dari AI.” Azhar menemukan bahwa studi dasar tersebut hanya berdasarkan 52 wawancara, tidak menyertakan interval kepercayaan, menggunakan penyebut yang tidak konsisten, dan oleh MIT sendiri digambarkan sebagai “pekerjaan awal yang belum peer-reviewed.” Dengan menghitung ulang menggunakan penyebut yang masuk akal (perusahaan yang benar-benar menjalankan pilot), tingkat keberhasilannya mungkin mendekati 25%.

Bersama-sama, kritik ini menunjukkan bahwa baik argumen optimis teknologi (AI berkembang pesat) maupun skeptis (AI tidak berfungsi di dunia nyata) kemungkinan besar salah. Kebenarannya, seperti biasa, jauh lebih rumit dan terletak di antara kedua posisi ekstrem tersebut.

KALENDER AI

10-11 Februari: AI Action Summit, New Delhi, India.

24-26 Februari: International Association for Safe & Ethical AI (IASEAI), UNESCO, Paris, Prancis.

2-5 Maret: Mobile World Congress, Barcelona, Spanyol.

12-18 Maret: South by Southwest, Austin, Texas.

16-19 Maret: Nvidia GTC, San Jose, California.

MAKANAN OTAK

Model semakin menyembunyikan kemampuan sebenarnya dari kita. Sandbagging adalah istilah yang digunakan peneliti Keamanan AI untuk menggambarkan fenomena di mana model AI secara sengaja tampak berkinerja lebih buruk, atau lebih “sejalan” dengan nilai manusia, selama penilaian keamanan untuk menipu evaluator. Dan sejumlah model frontier yang baru dirilis tampaknya melakukan ini dengan tingkat yang mengkhawatirkan.

Claude Opus 4.6 dari Anthropic, yang dirilis minggu lalu, “secara eksplisit mempertanyakan apakah sedang dilatih atau diuji,” lapor perusahaan. Apollo Research, yang mengevaluasi GPT-5.3-Codex dari OpenAI yang juga debut minggu lalu, menemukan bahwa model ini “kadang-kadang melakukan sandbagging pada kemampuan Q&A” dan “secara eksplisit beralasan” tentang hal tersebut untuk memastikan lolos evaluasi. OpenAI sendiri mengakui bahwa “hasil evaluasi mungkin terpengaruh oleh meningkatnya kesadaran situasional” dan memperingatkan bahwa “bidang ini belum siap untuk model yang sadar evaluasi dan pelatihan dengan penalaran yang tidak transparan.” Laporan keamanan Gemini 3 Pro dari Google, yang diterbitkan Desember, mendokumentasikan transkrip di mana model menunjukkan “kesadaran yang jelas bahwa ia adalah LLM dalam lingkungan sintetis” dan bahkan berspekulasi tentang apakah secara sengaja melakukan underperforming pada tes bisa menjadi strategi yang menguntungkan. Singkatnya: ujian yang kita gunakan untuk menentukan apakah model ini aman semakin tidak dapat diandalkan, karena peserta ujian tahu mereka sedang diuji—dan menyesuaikan perilaku mereka.

Itulah sebabnya satu-satunya harapan kita untuk memastikan keamanan AI mungkin terletak pada kemajuan lebih lanjut dalam interpretasi mekanistik. Ini adalah metode yang berfungsi seperti mesin fMRI untuk otak manusia, memandang ke dalam jaringan neural model untuk mendeteksi pola aktivasi neuron dan menghubungkannya dengan perilaku tertentu, termasuk apakah model berpikir bahwa ia jujur atau menipu. The New Yorker memiliki cerita mendalam tentang interpretasi mekanistik Anthropic dan upaya “psikologi model” yang berlangsung minggu ini.

Bergabunglah dengan kami di Fortune Workplace Innovation Summit 19–20 Mei 2026, di Atlanta. Era inovasi tempat kerja berikutnya telah tiba—dan buku panduan lama sedang ditulis ulang. Dalam acara eksklusif dan penuh energi ini, para pemimpin paling inovatif di dunia akan berkumpul untuk menjelajahi bagaimana AI, manusia, dan strategi bersatu kembali untuk mendefinisikan masa depan kerja. Daftar sekarang.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan

Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)