Nhóm lừa đảo Hồng Kông sử dụng Deepfake bị phanh phui – Giả vờ là những phụ nữ độc thân giàu có

Sổ tay bị tịch thu. Hàng triệu biến mất.

Cảnh sát Hồng Kông vừa triệt phá một hoạt động lừa đảo sử dụng AI để lừa dối các nạn nhân. Họ đã thu giữ khoảng 3,37 triệu đô la trong quá trình này. Những cuốn sổ họ tìm thấy? Thật sự mở mang. Những tên tội phạm này đã sử dụng deepfake để trông đáng tin cậy hơn. Khá tinh vi.

Mồi

Họ giả vờ là những phụ nữ độc thân giàu có. Bịa ra những câu chuyện về việc học tiếng Nhật. Nói về golf. Đề cập đến những chai rượu vang sang trọng trị giá hơn 12,850 đô la mỗi chai. Tất cả đều được ghi lại trong những cuốn sổ bị tịch thu đó.

Cảnh sát đã bắt giữ 31 người có liên quan đến nhóm này. Họ đã tạo ra những người phụ nữ hấp dẫn trông rất thật bằng AI. Sau đó đã sử dụng những nhân vật giả này cho các trò lừa đảo tình cảm. Cả những bẫy đầu tư nữa.

Deepfakes Gây Ra Hỗn Loạn

"Sự kết hợp giữa công nghệ và kỹ thuật xã hội này khá đáng lo ngại," Byron Boston, cựu cảnh sát và CEO của Crypto Track cho biết. Những hình ảnh AI này khiến cho kẻ lừa đảo trở nên thuyết phục hơn. Hãy để họ thực hiện các kế hoạch phức tạp hơn.

Boston đã đề cập đến một trường hợp mà video giả của các nhân vật công chúng đã giúp đánh cắp tiền điện tử. Không tốt.

Mục tiêu trẻ

Có vẻ như họ đã nhắm vào những người trẻ tuổi đang tìm kiếm tiền nhanh. Nạn nhân nghĩ rằng họ đang trò chuyện với những người phụ nữ hoàn hảo từ Đài Loan, Singapore, Malaysia. Không hề gần gũi.

Đối Kháng? Không Dễ

Boston nghĩ rằng sự hợp tác và hành động nhanh chóng là quan trọng ở đây. Nhưng nhiều sở cảnh sát địa phương ở Mỹ không có công cụ phù hợp. Không thể theo dõi tiền điện tử bị đánh cắp tốt. Hợp tác quốc tế? Có hạn.

Những tên tội phạm am hiểu công nghệ này vẫn là một cơn đau đầu cho các lực lượng an ninh ở khắp nơi.

Rò rỉ dữ liệu của Người sáng lập Solana: Lỗ hổng KYC hay Tống tiền Deepfake?

Raj Gokal bị tấn công nặng. Đồng sáng lập Solana đã bị rò rỉ tài liệu ID trên Instagram vào tháng 5 năm 2025. Yêu cầu tiền chuộc? 40 Bitcoin. Khoảng 4,36 triệu đô la.

Cộng đồng crypto đã hoảng loạn. Đặt ra những câu hỏi lớn về an ninh KYC. Có thể là những hình ảnh giả mạo được tạo ra bởi AI? Không hoàn toàn rõ ràng mọi thứ bắt đầu từ đâu.

🚨Sự Tăng Trưởng của Các Chiêu Lừa Đảo Crypto Deepfake: $200M Biến Mất Trong Im Lặng

Hãy tưởng tượng Elon Musk hứa hẹn với bạn 10 BTC...

Ngoại trừ đó không phải là anh ta. 👀

Đây là lừa đảo tiền điện tử 2.0—được hỗ trợ bởi AI và đáng sợ một cách thực tế.

🔥 $200M Đã biến mất vào Q3 2025 — Điều gì đã xảy ra

Báo cáo Chống Lừa đảo cho biết 87 băng nhóm deepfake đã bị triệt phá trên khắp Châu Á. Họ đã sử dụng video AI và bản sao giọng nói của Musk, các giám đốc tiền mã hóa, thậm chí cả các nhà quản lý. Các buổi ra mắt token giả. Quà tặng. "Xác minh airdrop."

Nó trở nên tồi tệ hơn.

GoPlus phát hiện những kẻ lừa đảo gửi những khoản chuyển tiền thử nhỏ—như 1,50 đô la—đến ví của bạn. Điều này khiến nó có vẻ hợp pháp.

Vậy thì?

Bạn chấp thuận một điều tồi tệ.

💥 Ví trống.

🧠 Chú Ý Những Dấu Hiệu Cảnh Báo Này

✔ Video cryptocurrency của người nổi tiếng? Hãy xác minh tài khoản trước.

✔ Airdrop ngẫu nhiên hoặc gửi thử? Bỏ qua chúng.

✔ Không ai hợp pháp sẽ nhắn tin yêu cầu cụm từ hạt giống. Không bao giờ.

Trí tuệ nhân tạo trong gian lận tiền điện tử: khi giọng nói không phải của bạn, nhưng nghe giống như bạn

Deepfake ngày càng trở nên tốt hơn. Lừa đảo tiền điện tử ngày càng trở nên thông minh hơn. Gần đây, các hacker đã giả làm một người sáng lập blockchain. Sử dụng giọng nói AI giả. Thuyết phục ai đó cài đặt phần mềm độc hại. Mất hơn $2 triệu. Nhìn rất thật. Ngay cả những người chuyên nghiệp cũng bị lừa.

Điều này xảy ra khá nhiều bây giờ. AI làm cho việc gian lận trở nên dễ dàng hơn cho mọi người. Ngay cả những người không biết lập trình. Chỉ cần hỏi một cuộc trò chuyện AI để tạo một trang web lừa đảo. Xong.

Deepfakes thật đáng sợ. Quý đầu tiên của năm 2025? Khoảng $200 triệu trong thiệt hại tiền mã hóa. Bây giờ ai cũng có thể giả giọng nói. Chỉ cần biết người nào để bắt chước.

Không chỉ là deepfake. Những người an ninh đã phát hiện ra phần mềm độc hại—ENHANCED STEALTH WALLET DRAINER. Được cho là do AI tạo ra. Mã phức tạp. Hiệu quả. Nhưng cái tên đó? Thật cơ bản. Cho thấy chính những hacker không tài giỏi đến vậy. Họ chỉ biết cách sử dụng AI.

Tin tốt? Bảo vệ cũng đang được cải thiện. Tại một cuộc thi hacker, họ phát hiện ra rằng các tác nhân AI có điểm yếu. Hơn một triệu nỗ lực hack đã chỉ ra hàng ngàn vấn đề. Điều này có nghĩa là chúng ta vẫn có cơ hội nếu có những người bảo mật giỏi.

Hầu hết các cuộc tấn công xảy ra vì nạn nhân bỏ qua những biện pháp bảo vệ cơ bản. Công nghệ quan trọng, nhưng việc nhận thức còn quan trọng hơn. Con người vẫn là hàng rào chính của chúng ta chống lại những mối đe dọa này.

Khủng hoảng an ninh Deepfake: $200 triệu bị mất vào năm 2025, gian lận AI trở thành kẻ thù công khai

Các con số đã được công bố. $200 triệu đã biến mất chỉ trong ba tháng đầu năm 2025. Tất cả đều từ gian lận deepfake.

Trong số 163 trường hợp công khai, người bình thường chiếm 34% số nạn nhân. Gần bằng 41% là người nổi tiếng hoặc chính trị gia. Ai cũng có thể là nạn nhân tiếp theo.

Kẻ lừa đảo đang trở nên giỏi trong việc này. Chỉ cần vài giây giọng nói của bạn? Đó là tất cả những gì họ cần. Họ có thể sao chép bạn với độ chính xác 85%. Những video giả? Gần 70% người không thể nhận ra chúng là giả.

Vào tháng 2 năm 2025, một viên chức tài chính ở Hồng Kông đã tin vào một video giả của Giám đốc điều hành của họ. Đã mất $25 triệu. Và 32% các trường hợp liên quan đến nội dung không phù hợp giả mạo để tống tiền. Chúng ta đang dễ bị tổn thương.

Thiệt hại là nhiều lớp. Tiền mất có thể đạt $40 tỷ hàng năm vào năm 2027.

Niềm tin cũng đang suy giảm. Khoảng 14% các deepfake được sử dụng để thao túng chính trị. Một 13% khác phát tán thông tin sai lệch. Mọi người tin tưởng vào nội dung kỹ thuật số ít hơn mỗi ngày.

Tác hại tâm lý có thể tồi tệ nhất. Đặc biệt đối với những người lớn tuổi. Nhiều nạn nhân nói rằng chấn thương tâm lý đau đớn hơn cả tổn thất tài chính.

Thông tin quan trọng về Sasha Alexander và Deepfakes

Sasha Alexander đã phủ nhận việc có bất kỳ deepfake nào. Vào tháng 4 năm 2017, cô đã đề cập đến những tuyên bố sai lệch trên mạng xã hội. Cô nói "Không phải tin giả" về những thông tin hợp pháp liên quan đến công việc của cô.

Công nghệ deepfake ngày càng tiến bộ. Tạo ra những video trông giống thật. Các nhân vật công chúng như Alexander thường trở thành mục tiêu mà không có sự đồng ý. Gây ra những vấn đề đạo đức nghiêm trọng.

Hãy cẩn thận với bất kỳ nội dung "deepfake người nổi tiếng" nào trên mạng. Thường được tạo ra mà không có sự cho phép. Có thể là một phần của các trò lừa đảo để dẫn bạn đến những trang web nguy hiểm.

BTC4.04%
SOL5.58%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)