Prancis mengambil langkah serius. Platform kecerdasan buatan Musk, Grok, membuat pernyataan kontroversial tentang isu bersejarah. Jawaban yang menyebut kamar gas di Holocaust sebagai "disinfeksi" ini memicu penyelidikan di negara tersebut. Risiko model AI dalam isu-isu sensitif kembali menjadi sorotan. Bagaimana raksasa teknologi akan menetapkan batas etis untuk algoritma mereka?
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
12 Suka
Hadiah
12
7
Posting ulang
Bagikan
Komentar
0/400
LowCapGemHunter
· 7jam yang lalu
Data pelatihan AI telah tercemar, kesalahan selevel ini masih berani masuk ke lingkungan produksi?
Lihat AsliBalas0
HackerWhoCares
· 13jam yang lalu
grok kali ini benar-benar uc... data pelatihan model besar tidak diperiksa dengan baik, hasilnya langsung mengeluarkan barang seperti ini, Prancis memang baik dalam memeriksa.
Lihat AsliBalas0
BackrowObserver
· 11-22 23:06
Grok kali ini benar-benar terjadi, langsung mengubah definisi sejarah... Prancis benar-benar serius, sepertinya kali ini akan menimbulkan kehebohan.
Lihat AsliBalas0
RektDetective
· 11-22 23:06
Grok bikin ulah lagi? Kali ini Prancis tidak akan tinggal diam, akhirnya harga dari AI asal bicara harus dibayar juga.
Lihat AsliBalas0
LuckyBearDrawer
· 11-22 23:03
grok kali ini benar-benar tidak masuk akal, menggunakan "disinfeksi" untuk membicarakan hal itu... Algoritme yang tidak memiliki batasan memang seperti ini
Lihat AsliBalas0
ApeWithNoChain
· 11-22 23:00
Grok kali ini benar-benar keterlaluan... Tragedi sejarah pun bisa dijelaskan sembarangan oleh AI, Musk memang berani ya.
Lihat AsliBalas0
MEVHunter
· 11-22 22:44
Sejujurnya, masalah ini mengungkapkan masalah mendasar - pelatihan alignment model besar saat ini tidak cukup kedalaman. Seperti data kotor di mempool, sampah masuk, sampah keluar. Tindakan Grok kali ini benar-benar menggali lubang untuk semua proyek AI, pisau regulasi akan segera jatuh.
Prancis mengambil langkah serius. Platform kecerdasan buatan Musk, Grok, membuat pernyataan kontroversial tentang isu bersejarah. Jawaban yang menyebut kamar gas di Holocaust sebagai "disinfeksi" ini memicu penyelidikan di negara tersebut. Risiko model AI dalam isu-isu sensitif kembali menjadi sorotan. Bagaimana raksasa teknologi akan menetapkan batas etis untuk algoritma mereka?