Группа мошенников из Гонконга, использующая дипфейки, раскрыта – притворялась состоятельными незамужними женщинами

Ноутбуки изъяты. Миллионы пропали.

Полиция Гонконга только что разоблачила мошенническую операцию, использующую ИИ для обмана жертв. В результате они захватили около 3,37 миллиона долларов. Нотebooks, которые они нашли? Удивительные вещи. Эти преступники использовали дипфейки, чтобы выглядеть более правдоподобно. Довольно сложно.

Приманка

Они представлялись богатыми незамужними женщинами. Придумывали истории о том, как учат японский. Говорили о гольфе. Упоминали дорогие вина стоимостью более 12 850 долларов за бутылку. Все это было записано в тех изъятых блокнотах.

Полиция арестовала 31 человека, связанных с этой группой. Они создали реалистично выглядящих привлекательных женщин с помощью ИИ. Затем использовали эти поддельные личности для романтических мошенничеств. Также инвестиционные ловушки.

Глубокие фейки вызывают хаос

"Это сочетание технологий и социальной инженерии вызывает определенные беспокойства," говорит Байрон Бостон, бывший полицейский и CEO Crypto Track. Эти AI-изображения делают мошенников более убедительными. Позвольте им проводить более сложные схемы.

Бостон упомянул случай, когда поддельные видео с участием публичных фигур помогли украсть криптовалюту. Это нехорошо.

Молодые цели

Похоже, они охотились на молодых людей, ищущих быстрые деньги. Жертвы думали, что общаются с идеальными женщинами из Тайваня, Сингапура, Малайзии. И близко не стояли.

Сопротивление? Нелегко

Бостон считает, что командная работа и быстрая реакция имеют значение здесь. Но многие местные полицейские департаменты в США не имеют необходимых инструментов. Не могут хорошо отслеживать украденную криптовалюту. Международное сотрудничество? Ограничено.

Эти технически подкованные преступники остаются головной болью для сил безопасности повсюду.

Утечка данных соучредителя Solana: уязвимость KYC или шантаж с использованием дипфейков?

Радж Гокал сильно пострадал. Соучредитель Solana стал жертвой утечки своих документов удостоверяющих личность в Instagram в мае 2025 года. Требование выкупа? 40 Bitcoin. Это примерно 4,36 миллиона долларов.

Крипто-сообщество впало в панику. Поднимает большие вопросы о безопасности KYC. Возможно, это сгенерированные ИИ дипфейки? Не совсем ясно, с чего всё началось.

🚨Рост мошенничества с криптовалютами на основе дипфейков: $200M Пропали в тишине

Представьте, что Илон Маск обещает вам 10 BTC...

Только это был не он. 👀

Это крипто-мошенничество 2.0 — основанное на ИИ и пугающе реалистичное.

🔥 $200M Ушло в Q3 2025 — Как это произошло

В отчете по борьбе с мошенничеством говорится, что 87 групп, занимающихся дипфейками, были разоблачены по всей Азии. Они использовали AI-видео и голосовые клоны Маска, крипто-руководителей, даже регуляторов. Поддельные запуски токенов. Раздачи. "Верификацииairdrop."

Становится хуже.

GoPlus обнаружил мошенников, отправляющих небольшие тестовые переводы—например, $1.50—на ваш кошелек. Это создает ощущение легитимности.

Тогда?

Вы одобряете что-то плохое.

💥 Кошелек пуст.

🧠 Обратите внимание на эти красные флаги

✔ Видео криптовалют с участием знаменитостей? Сначала подтвердите аккаунт.

✔ Случайныеairdrops или тестовые переводы? Игнорируйте их.

✔ Никто легитимный не будет писать, спрашивая сид-фразы. Никогда.

Искусственный интеллект в крипто-мошенничестве: когда голос не ваш, но звучит как ваш

Дипфейки продолжают улучшаться. Криптоаферы становятся всё более изощрёнными. Недавно хакеры выдали себя за основателя блокчейна. Использовали поддельный ИИ-голос. Убедили кого-то установить вредоносное ПО. Потеряли более $2 миллиона. Выглядело так реально. Даже профессионалы попадаются на удочку.

Это сейчас происходит очень часто. ИИ облегчает мошенничество для всех. Даже для людей, которые не умеют программировать. Просто попросите ИИ-чат создать фишинговый сайт. Готово.

Дипфейки пугают. Первый квартал 2025 года? Около $200 миллионов ущерба в криптовалюте. Теперь любой может подделать голос. Нужно только знать, кого имитировать.

Дело не только в дипфейках. Специалисты по безопасности обнаружили этот вредоносный ПО — УЛУЧШЕННЫЙ ДИСКРЕТНЫЙ ВЫМАНИВАТЕЛЬ КОШЕЛЬКОВ. Предположительно созданный ИИ. Сложный код. Эффективный. Но это название? Такое простое. Показывает, что сами хакеры не так уж и умелы. Они просто знают, как использовать ИИ.

Хорошие новости? Защита тоже улучшается. На одном хакерском конкурсе они обнаружили, что у ИИ-агентов есть уязвимости. Более миллиона попыток взлома показали тысячи проблем. Это значит, что у нас все еще есть шанс, если у нас есть хорошие специалисты по безопасности.

Большинство атак происходит из-за того, что жертвы игнорируют основные меры защиты. Технологии имеют значение, но осведомленность имеет большее значение. Люди по-прежнему являются нашей главной защитой от этих угроз.

Кризис безопасности дипфейков: $200 миллионов потеряно в 2025 году, мошенничество с ИИ становится общественным врагом

Цифры готовы. $200 миллионов потеряно всего за три месяца 2025 года. Все из-за мошенничества с дипфейками.

Среди 163 публичных дел обычные люди составили 34% жертв. Почти столько же, сколько и 41%, которые были знаменитостями или политиками. Следующим может стать кто угодно.

Мошенники становятся в этом искусными. Несколько секунд вашего голоса? Этого достаточно. Они могут скопировать вас с точностью 85%. Поддельные видео? Почти 70% людей не могут отличить их от настоящих.

В феврале 2025 года финансовый директор в Гонконге поверил в поддельное видео своего генерального директора. Потеряно $25 миллионов. И 32% случаев были связаны с подделкой неприемлемого контента для шантажа. Мы уязвимы.

Ущерб многослойный. Потери денег могут составить $40 миллиард ежегодно к 2027 году.

Доверие тоже разрушается. Около 14% дипфейков используются для политической манипуляции. Еще 13% распространяют ложную информацию. Люди с каждым днем все меньше доверяют цифровому контенту.

Психологический вред может быть худшим из всего. Особенно для пожилых людей. Многие жертвы говорят, что психологическая травма причиняет больше боли, чем финансовые потери.

Важная информация о Саше Александре и дипфейках

Саша Александер опровергла информацию о том, что она была в каких-либо дипфейках. В апреле 2017 года она прокомментировала ложные утверждения в социальных сетях. Сказала "Это не фейковые новости" о законном освещении её работы.

Технология дипфейков продолжает улучшаться. Создает видео, которые выглядят реалистично. Общественные деятели, такие как Александр, часто становятся мишенями без согласия. Поднимает серьезные этические вопросы.

Будьте осторожны с любым контентом "глубоких фейков" с участием знаменитостей в интернете. Обычно его создают без разрешения. Это может быть частью мошеннических схем, чтобы привлечь вас на опасные сайты.

BTC2.08%
SOL3.85%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить