Belakangan ini saya mengamati industri AI dan menemukan perubahan yang semakin "terjun ke bawah": dari konsensus utama yang awalnya berfokus pada konsentrasi kekuatan komputasi dan model "besar", telah berkembang menjadi cabang yang mengarah pada model kecil lokal dan komputasi tepi.
Hal ini dapat dilihat dari jangkauan Apple Intelligence yang mencakup 500 juta perangkat, peluncuran model kecil 3,3 miliar parameter Mu khusus Windows 11 oleh Microsoft, hingga operasi "offline" robot DeepMind dari Google.
Apa bedanya? AI cloud bersaing dalam skala parameter dan data pelatihan, kemampuan membakar uang adalah daya saing inti; AI lokal bersaing dalam optimasi rekayasa dan adaptasi skenario, akan lebih maju dalam melindungi privasi, keandalan, dan kegunaan. (Masalah ilusi dari model umum utama akan sangat mempengaruhi penetrasi skenario vertikal)
Ini sebenarnya akan memberikan peluang yang lebih besar untuk web3 AI. Ketika semua orang berlomba untuk kemampuan "generalisasi" (komputasi, data, algoritma), mereka secara alami didominasi oleh raksasa tradisional. Mengaitkan konsep desentralisasi dan berpikir dapat bersaing dengan Google, AWS, OpenAI, dan sebagainya, itu benar-benar omong kosong. Bagaimanapun, tidak ada keunggulan sumber daya, keunggulan teknologi, dan juga tidak memiliki basis pengguna.
Tetapi ketika memasuki dunia model lokal + komputasi tepi, situasi yang dihadapi oleh layanan teknologi blockchain menjadi sangat berbeda.
Ketika model AI berjalan di perangkat pengguna, bagaimana cara membuktikan bahwa hasil output tidak telah dimanipulasi? Bagaimana cara mencapai kolaborasi model sambil melindungi privasi? Pertanyaan-pertanyaan ini adalah kekuatan teknologi blockchain...
Telah diperhatikan beberapa proyek baru terkait web3 AI, seperti protokol komunikasi data Lattica yang baru saja diluncurkan oleh @Gradient_HQ dengan investasi nol dari Pantera sebesar 10M, untuk mengatasi masalah monopoli data dan kotak hitam pada platform AI terpusat; perangkat gelombang otak @PublicAI_HeadCap yang mengumpulkan data manusia nyata, membangun "lapisan verifikasi buatan", dan telah mencapai pendapatan sebesar 14M; sebenarnya, semuanya mencoba untuk mengatasi masalah "keandalan" AI lokal.
Satu kalimat: Hanya ketika AI benar-benar "menyebar" ke setiap perangkat, kolaborasi terdesentralisasi akan beralih dari konsep menjadi kebutuhan mendesak?
#Proyek Web3AI, daripada terus bersaing di jalur umum, lebih baik memikirkan dengan serius bagaimana memberikan dukungan infrastruktur untuk gelombang AI yang terlokalisasi?
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Setelah AI "turun", apakah ini saatnya Web3 menunjukkan kemampuannya yang sebenarnya?
Penulis: Haotian
Belakangan ini saya mengamati industri AI dan menemukan perubahan yang semakin "terjun ke bawah": dari konsensus utama yang awalnya berfokus pada konsentrasi kekuatan komputasi dan model "besar", telah berkembang menjadi cabang yang mengarah pada model kecil lokal dan komputasi tepi.
Hal ini dapat dilihat dari jangkauan Apple Intelligence yang mencakup 500 juta perangkat, peluncuran model kecil 3,3 miliar parameter Mu khusus Windows 11 oleh Microsoft, hingga operasi "offline" robot DeepMind dari Google.
Apa bedanya? AI cloud bersaing dalam skala parameter dan data pelatihan, kemampuan membakar uang adalah daya saing inti; AI lokal bersaing dalam optimasi rekayasa dan adaptasi skenario, akan lebih maju dalam melindungi privasi, keandalan, dan kegunaan. (Masalah ilusi dari model umum utama akan sangat mempengaruhi penetrasi skenario vertikal)
Ini sebenarnya akan memberikan peluang yang lebih besar untuk web3 AI. Ketika semua orang berlomba untuk kemampuan "generalisasi" (komputasi, data, algoritma), mereka secara alami didominasi oleh raksasa tradisional. Mengaitkan konsep desentralisasi dan berpikir dapat bersaing dengan Google, AWS, OpenAI, dan sebagainya, itu benar-benar omong kosong. Bagaimanapun, tidak ada keunggulan sumber daya, keunggulan teknologi, dan juga tidak memiliki basis pengguna.
Tetapi ketika memasuki dunia model lokal + komputasi tepi, situasi yang dihadapi oleh layanan teknologi blockchain menjadi sangat berbeda.
Ketika model AI berjalan di perangkat pengguna, bagaimana cara membuktikan bahwa hasil output tidak telah dimanipulasi? Bagaimana cara mencapai kolaborasi model sambil melindungi privasi? Pertanyaan-pertanyaan ini adalah kekuatan teknologi blockchain...
Telah diperhatikan beberapa proyek baru terkait web3 AI, seperti protokol komunikasi data Lattica yang baru saja diluncurkan oleh @Gradient_HQ dengan investasi nol dari Pantera sebesar 10M, untuk mengatasi masalah monopoli data dan kotak hitam pada platform AI terpusat; perangkat gelombang otak @PublicAI_HeadCap yang mengumpulkan data manusia nyata, membangun "lapisan verifikasi buatan", dan telah mencapai pendapatan sebesar 14M; sebenarnya, semuanya mencoba untuk mengatasi masalah "keandalan" AI lokal.
Satu kalimat: Hanya ketika AI benar-benar "menyebar" ke setiap perangkat, kolaborasi terdesentralisasi akan beralih dari konsep menjadi kebutuhan mendesak?
#Proyek Web3AI, daripada terus bersaing di jalur umum, lebih baik memikirkan dengan serius bagaimana memberikan dukungan infrastruktur untuk gelombang AI yang terlokalisasi?