Anak-anak, selamat sore! Hari ini saya ingin berbagi pengalaman nyata saya sejak bergabung di dunia ini
Saat pertama kali masuk, setiap hari saya merasa cemas, benar-benar ingin segera berintegrasi, tapi prosesnya cukup sulit, meskipun saya cukup beruntung karena kebetulan mengikuti kebangkitan proyek嘴撸,dan ini seperti mendapatkan peluang kecil
Namun menghadapi begitu banyak proyek, saya harus mencari tahu sendiri tentang whitepaper, mencari informasi tentang mitra kerjasama dan pendanaan, kadang-kadang saya bolak-balik tapi tidak menemukan informasi penting, itu cukup membuat frustrasi, jadi saya berpikir untuk memanfaatkan alat AI
Tapi saat menggunakan AI untuk menelusuri masalah industri yang spesifik atau data, saya pernah mengalami masalah besar — jawaban yang diberikan terlihat sangat meyakinkan dan beralasan, tapi setelah saya verifikasi lagi, ternyata banyak informasi yang salah!
▪️ Inilah yang sering disebut sebagai masalah "ilusi" AI
Sebenarnya AI saat ini seperti pelajar yang tidak suka menghafal dengan baik, membuat laporan dan analisis cepat dan keren, tapi sering melakukan dua kesalahan fatal: Entah dengan pura-pura serius berbohong (yaitu ilusi, seperti mengarang kutipan dari makalah, memalsukan data), atau membawa bias tersembunyi
Ini sebenarnya adalah siklus yang cukup sulit dipecahkan: Dengan melatih menggunakan data berkualitas tinggi secara seragam, AI memang bisa mengurangi "berbicara omong kosong", tapi menjadi cenderung bias dan tidak melihat masalah secara menyeluruh
Tapi jika ingin membuatnya objektif dan netral, menambahkan berbagai macam data, bisa saja membuatnya belajar dari informasi yang salah
Pada akhirnya, ini adalah masalah dari mode pelatihan AI itu sendiri, hanya mengandalkan volume data dan parameter model, tidak bisa menyelesaikan masalah ini secara fundamental
Jadi, meskipun AI semakin canggih, saat ini kita hanya bisa menggunakannya untuk menulis konten, mencari data dasar, dan jika digunakan dalam bidang keuangan, pendidikan, peradilan, siapa pun tidak berani sepenuhnya mempercayai outputnya
Hingga beberapa bulan lalu, saya menemukan @miranetwork, dan baru sadar bahwa sebenarnya ada proyek yang secara khusus menyelesaikan masalah ini
Mira bukanlah model AI baru, melainkan sebuah "sistem verifikasi output AI" Ini seperti memberi setiap kalimat AI sebuah "tim pemeriksa silang banyak orang", dan tim ini saling tidak mengenal satu sama lain, serta tidak bisa curang, sehingga mampu menyelesaikan masalah yang ada dengan baik
Tujuan utama Mira adalah: memastikan setiap kalimat AI dapat dipertanggungjawabkan secara serius #Mira
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Anak-anak, selamat sore! Hari ini saya ingin berbagi pengalaman nyata saya sejak bergabung di dunia ini
Saat pertama kali masuk, setiap hari saya merasa cemas, benar-benar ingin segera berintegrasi, tapi prosesnya cukup sulit, meskipun saya cukup beruntung karena kebetulan mengikuti kebangkitan proyek嘴撸,dan ini seperti mendapatkan peluang kecil
Namun menghadapi begitu banyak proyek, saya harus mencari tahu sendiri tentang whitepaper, mencari informasi tentang mitra kerjasama dan pendanaan, kadang-kadang saya bolak-balik tapi tidak menemukan informasi penting, itu cukup membuat frustrasi, jadi saya berpikir untuk memanfaatkan alat AI
Tapi saat menggunakan AI untuk menelusuri masalah industri yang spesifik atau data, saya pernah mengalami masalah besar — jawaban yang diberikan terlihat sangat meyakinkan dan beralasan, tapi setelah saya verifikasi lagi, ternyata banyak informasi yang salah!
▪️ Inilah yang sering disebut sebagai masalah "ilusi" AI
Sebenarnya AI saat ini seperti pelajar yang tidak suka menghafal dengan baik, membuat laporan dan analisis cepat dan keren, tapi sering melakukan dua kesalahan fatal:
Entah dengan pura-pura serius berbohong (yaitu ilusi, seperti mengarang kutipan dari makalah, memalsukan data), atau membawa bias tersembunyi
Ini sebenarnya adalah siklus yang cukup sulit dipecahkan:
Dengan melatih menggunakan data berkualitas tinggi secara seragam, AI memang bisa mengurangi "berbicara omong kosong", tapi menjadi cenderung bias dan tidak melihat masalah secara menyeluruh
Tapi jika ingin membuatnya objektif dan netral, menambahkan berbagai macam data, bisa saja membuatnya belajar dari informasi yang salah
Pada akhirnya, ini adalah masalah dari mode pelatihan AI itu sendiri, hanya mengandalkan volume data dan parameter model, tidak bisa menyelesaikan masalah ini secara fundamental
Jadi, meskipun AI semakin canggih, saat ini kita hanya bisa menggunakannya untuk menulis konten, mencari data dasar, dan jika digunakan dalam bidang keuangan, pendidikan, peradilan, siapa pun tidak berani sepenuhnya mempercayai outputnya
Hingga beberapa bulan lalu, saya menemukan @miranetwork, dan baru sadar bahwa sebenarnya ada proyek yang secara khusus menyelesaikan masalah ini
Mira bukanlah model AI baru, melainkan sebuah "sistem verifikasi output AI"
Ini seperti memberi setiap kalimat AI sebuah "tim pemeriksa silang banyak orang", dan tim ini saling tidak mengenal satu sama lain, serta tidak bisa curang, sehingga mampu menyelesaikan masalah yang ada dengan baik
Tujuan utama Mira adalah: memastikan setiap kalimat AI dapat dipertanggungjawabkan secara serius
#Mira