Hong Kong Dolandırıcılık Grubu Derin Taklitlerle Açığa Çıkarıldı – Zengin Bekar Kadınlar Gibi Davrandılar

Defterler el konuldu. Milyonlar gitti.

Hong Kong polisi, kurbanları kandırmak için AI kullanan bir dolandırıcılık operasyonunu yeni çözdü. Bu süreçte yaklaşık 3,37 milyon dolar kaptılar. Buldukları defterler? Göz açıcı şeyler. Bu suçlular, daha inandırıcı görünmek için derin sahtecilik (deepfake) kullanıyorlardı. Oldukça sofistike.

Tuzağı

Zengin bekar kadınlar gibi davrandılar. Japonca öğrenme hikayeleri uydurdular. Golf hakkında konuştular. Her biri 12,850 $'dan fazla değerindeki şaraplardan bahsettiler. Hepsi o el konulan defterlerde yazılı.

Polis, bu grupla bağlantılı 31 kişiyi tutukladı. Gerçekçi görünümlü çekici kadınlar oluşturmak için yapay zeka kullandılar. Ardından bu sahte kimlikleri romantik dolandırıcılık için kullandılar. Yatırım tuzakları da.

Derin Taklitler Kargaşaya Neden Oluyor

"Bu teknoloji ve sosyal mühendislik kombinasyonu biraz endişe verici," diyor eski polis ve Crypto Track CEO'su Byron Boston. Bu AI görüntüleri dolandırıcıları daha inandırıcı hale getiriyor. Daha karmaşık planlar yürütmelerine izin verin.

Boston, sahte videoların kamu figürlerinin yer aldığı bir durumda kripto para çalmaya yardımcı olduğunu belirtti. İyi değil.

Genç Hedefler

Görünüşe göre hızlı para arayan gençlerin peşine düştüler. Kurbanlar, Tayvan, Singapur, Malezya'dan mükemmel kadınlarla konuştuklarını düşündüler. Hatta yanlarında bile değillerdi.

Geri Mi Dönmek? Kolay Değil

Boston, burada takım çalışmasının ve hızlı eylemin önemli olduğunu düşünüyor. Ancak ABD'deki birçok yerel polis departmanının doğru araçları yok. Çalınan kripto paraları iyi takip edemiyorlar. Uluslararası işbirliği? Sınırlı.

Bu teknoloji meraklısı suçlular, güvenlik güçleri için her yerde bir baş ağrısı olmaya devam ediyor.

Solana Kurucu Ortağı Veri Sızıntısı: KYC Açığı mı Yoksa Deepfake Şantajı mı?

Raj Gokal kötü bir şekilde vuruldu. Solana'nın kurucu ortağının kimlik belgeleri Mayıs 2025'te Instagram'da sızdırıldı. Fidye talebi? 40 Bitcoin. Bu da yaklaşık 4.36 milyon dolar.

Kripto topluluğu paniğe kapıldı. KYC güvenliği hakkında büyük sorular ortaya çıkıyor. Belki yapay zeka tarafından üretilen derin sahtekarlıklar? Her şeyin nereden başladığı tam olarak net değil.

🚨Derin Taklit Kripto Dolandırıcılıklarının Yükselişi: $200M Sessizlikte Kayboldu

Elon Musk'ın size 10 BTC vaat ettiğini hayal edin...

Ama o değildi. 👀

Bu kripto dolandırıcılığı 2.0 - AI destekli ve korkutucu derecede gerçekçi.

🔥 $200M Q3 2025'te Gitti — Nasıl Oldu

Anti-Dolandırıcılık Raporu, Asya genelinde 87 derin sahtekarlık çetesinin çökertildiğini söylüyor. Musk'ın, kripto yöneticilerinin ve hatta düzenleyicilerin AI videolarını ve ses kopyalarını kullandılar. Sahte token lansmanları. Hediye dağıtımları. "Airdrop doğrulamaları."

Daha da kötüleşiyor.

GoPlus, cüzdanınıza $1.50 gibi küçük test transferleri gönderen dolandırıcıları buldu. Bu durumu gerçek gibi hissettiriyor.

O zaman?

Kötü bir şeyi onaylıyorsunuz.

💥 Cüzdan boş.

🧠 Bu Kırmızı Bayraklara Dikkat Edin

✔ Ünlü kripto videoları mı? Önce hesabı doğrulayın.

✔ Rastgele airdrop'lar veya test gönderimleri? Onları görmezden gel.

✔ Hiç kimse, tohum kelimeleri istemek için mesaj atmaz. Asla.

Kripto dolandırıcılığında yapay zeka: ses senin olmasa da, senin gibi geliyor

Derin sahtecilikler giderek daha iyi hale geliyor. Kripto dolandırıcılıkları giderek daha akıllı hale geliyor. Son zamanlarda, hackerlar bir blockchain kurucusu gibi davrandı. Sahte AI sesi kullandılar. Birini kötü amaçlı yazılım yüklemeye ikna ettiler. $2 milyonun üzerinde kaybettiler. O kadar gerçek görünüyordu ki. Profesyoneller bile kandırılıyor.

Bu artık sıkça oluyor. AI, dolandırıcılığı herkes için daha kolay hale getiriyor. Kod yazamayan insanlar bile. Sadece bir AI sohbetinden bir kimlik avı sitesi yapmasını isteyin. Tamam.

Derin sahtecilikler korkutucu. 2025'in ilk çeyreği? Yaklaşık $200 milyon kripto zararı. Artık herkes bir sesi taklit edebilir. Sadece kimin taklit edileceğini bilmek yeter.

Sadece derin sahtecilikler değil. Güvenlik uzmanları bu kötü amaçlı yazılımı buldular - GELİŞTİRİLMİŞ GİZLİ CEBİ BOŞALTICI. Söylendiğine göre AI tarafından yapıldı. Karmaşık kod. Etkili. Ama o isim? O kadar basit ki. Hackerların kendilerinin o kadar yetenekli olmadığını gösteriyor. Sadece AI'yi nasıl kullanacaklarını biliyorlar.

İyi haberler mi? Koruma da gelişiyor. Bir hacker yarışmasında, AI ajanlarının zayıflıkları bulundu. Bir milyondan fazla hack girişimi binlerce sorunu gösterdi. Bu, iyi güvenlik uzmanlarımız varsa hâlâ bir şansımız olduğu anlamına geliyor.

Çoğu saldırı, kurbanların temel korumaları göz ardı etmesi nedeniyle işe yarar. Teknoloji önemlidir, ancak farkındalık daha da önemlidir. İnsanlar hâlâ bu tehditlere karşı ana savunmamızdır.

Deepfake Güvenlik Krizi: $200 Milyon Kayıp 2025'te, AI Dolandırıcılığı Kamu Düşmanı Oluyor

Rakamlar geldi. $200 milyon sadece 2025'in üç ayında kayboldu. Hepsi deepfake dolandırıcılığından.

163 kamu davası arasında, sıradan insanlar kurbanların %34'ünü oluşturuyordu. Ünlüler veya politikacılar olanların %41'ine neredeyse eşit. Herkes bir sonraki olabilir.

Dolandırıcılar bu işte iyi oluyor. Sadece birkaç saniye sesiniz mi? Hepsi bu kadar. Sizi %85 doğrulukla kopyalayabilirler. Sahte videolar mı? İnsanların neredeyse %70'i bunların sahte olduğunu anlayamıyor.

Şubat 2025'te, Hong Kong'daki bir finans yetkilisi CEO'larının sahte bir videosuna inandı. $25 milyon kaybetti. Ve davaların %32'si şantaj için sahte uygunsuz içerik içeriyordu. Savunmasızız.

Zarar çok katmanlı. Kaybedilen para, 2027 yılına kadar yıllık $40 milyar doları bulabilir.

Güven de azalıyor. Derin sahte görüntülerin yaklaşık %14'ü siyasi manipülasyon için kullanılıyor. Diğer %13'ü yanlış bilgi yayıyor. İnsanlar dijital içeriğe her gün daha az güveniyor.

Psikolojik zarar belki de en kötüsüdür. Özellikle yaşlılar için. Birçok kurban zihinsel travmanın maddi kayıptan daha fazla acı verdiğini söylüyor.

Sasha Alexander ve Deepfake'ler Hakkında Önemli Bilgiler

Sasha Alexander, derin sahte görüntülerde yer aldığını reddetti. Nisan 2017'de sosyal medyadaki yanlış iddialara yanıt verdi. "Sahte haber değil" diyerek çalışmalarıyla ilgili meşru haberleri ifade etti.

Deepfake teknolojisi sürekli gelişiyor. Gerçek gibi görünen videolar oluşturuyor. Alexander gibi kamu figürleri genellikle rızası olmadan hedef haline geliyor. Ciddi etik sorunları gündeme getiriyor.

Online "ünlü derin sahte" içeriği ile dikkatli olun. Genellikle izin olmadan yapılır. Sizi tehlikeli web sitelerine çekmek için dolandırıcılıkların bir parçası olabilir.

BTC-0.27%
SOL-2.51%
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • Comment
  • Repost
  • Share
Comment
0/400
No comments
  • Pin
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate App
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)