A polícia de Hong Kong acaba de desmantelar uma operação de fraude que usava IA para enganar as vítimas. Eles apreenderam cerca de 3,37 milhões de dólares no processo. Os cadernos que encontraram? Coisas de fazer abrir os olhos. Esses criminosos estavam usando deepfakes para parecerem mais credíveis. Bastante sofisticado.
A Isca
Elas se passaram por ricas mulheres solteiras. Inventaram histórias sobre aprender japonês. Falaram sobre golfe. Mencionaram vinhos caros que valem mais de 12.850 dólares por garrafa. Tudo anotado nesses cadernos apreendidos.
A polícia prendeu 31 pessoas ligadas a este grupo. Eles criaram mulheres atraentes com aparência realista usando IA. Depois, usaram essas personas falsas para golpes de romance. Armadilhas de investimento também.
Deepfakes a Causar Caos
"Esta combinação de tecnologia e engenharia social é um pouco preocupante," diz Byron Boston, ex-policia e CEO da Crypto Track. Estas imagens de IA tornam os golpistas mais convincentes. Permitem-lhes executar esquemas mais complexos.
Boston mencionou um caso em que vídeos falsos de figuras públicas ajudaram a roubar criptomoedas. Não é bom.
Jovens Alvos
Parece que eles foram atrás de jovens à procura de dinheiro rápido. As vítimas pensavam que estavam a falar com mulheres perfeitas de Taiwan, Singapura, Malásia. Nem perto.
Lutar de Volta? Não é Fácil
Boston pensa que o trabalho em equipe e a ação rápida são importantes aqui. Mas muitos departamentos de polícia locais nos EUA não têm as ferramentas adequadas. Não conseguem rastrear criptomoedas roubadas bem. Cooperação internacional? Limitada.
Esses criminosos habilidosos em tecnologia continuam a ser uma dor de cabeça para as forças de segurança em todo o lado.
Vazamento de Dados do Co-Fundador da Solana: Vulnerabilidade KYC ou Extorsão com Deepfake?
Raj Gokal foi gravemente atingido. O cofundador da Solana teve os seus documentos de identificação vazados no Instagram em maio de 2025. Pedido de resgate? 40 Bitcoin. Isso equivale a cerca de 4,36 milhões de dólares.
A comunidade cripto entrou em pânico. Levanta grandes questões sobre a segurança do KYC. Talvez deepfakes gerados por IA? Não está totalmente claro onde tudo começou.
🚨A Ascensão dos Golpes Cripto de Deepfake: $200M Desaparecido em Silêncio
Imagine Elon Musk a prometer-lhe 10 BTC...
Exceto que não era ele. 👀
Isto é a fraude cripto 2.0—potenciada por IA e assustadoramente realista.
🔥 $200M Desaparecido no Q3 2025 — Como Aconteceu
O Relatório Anti-Golpe diz que 87 redes de deepfake foram desmanteladas em toda a Ásia. Elas usaram vídeos de IA e clones de voz do Musk, executivos de criptomoedas, até mesmo reguladores. Lançamentos de tokens falsos. Sorteios. "Verificações de airdrop."
Fica pior.
A GoPlus descobriu golpistas enviando pequenas transferências de teste—como 1,50$—para a sua carteira. Faz parecer legítimo.
Então?
Você aprova algo ruim.
💥 Carteira vazia.
🧠 Fique Atento a Estes Sinais de Alerta
✔ Vídeos de criptomoedas de celebridades? Verifique a conta primeiro.
✔ Airdrops aleatórios ou envios de teste? Ignorá-los.
✔ Ninguém legítimo vai enviar mensagens a pedir frases-semente. Nunca.
Inteligência artificial na fraude cripto: quando a voz não é sua, mas soa como você
Os deepfakes continuam a melhorar. Os esquemas de criptomoeda continuam a ficar mais inteligentes. Recentemente, hackers fingiram ser um fundador de blockchain. Usaram uma voz de IA falsa. Convenceram alguém a instalar malware. Perderam mais de $2 milhões. Parecia tão real. Até os profissionais são enganados.
Isto acontece muito agora. A IA torna a fraude mais fácil para todos. Até para pessoas que não sabem programar. Basta pedir a um chat de IA para criar um site de phishing. Feito.
Deepfakes são assustadores. Primeiro trimestre de 2025? Cerca de $200 milhões em danos de criptomoeda. Qualquer um pode falsificar uma voz agora. Só precisa saber quem imitar.
Não são apenas deepfakes. Pessoal de segurança encontrou este malware—DRENADOR DE CARTEIRA STEALTH APRIMORADO. Supostamente feito por IA. Código complexo. Eficaz. Mas esse nome? Tão básico. Mostra que os próprios hackers não são tão habilidosos. Eles apenas sabem como usar IA.
Boas notícias? A proteção também está a melhorar. Numa competição de hackers, descobriram que os agentes de IA têm fraquezas. Mais de um milhão de tentativas de hackeamento mostraram milhares de problemas. Isso significa que ainda temos uma chance se tivermos boas pessoas de segurança.
A maioria dos ataques funciona porque as vítimas ignoram a proteção básica. A tecnologia é importante, mas ter consciência é ainda mais importante. As pessoas continuam a ser a nossa principal defesa contra essas ameaças.
Crise de Segurança dos Deepfakes: $200 Milhões Perdidos em 2025, Fraude de IA Torna-se Inimigo Público
Os números estão disponíveis. $200 milhões desapareceram em apenas três meses de 2025. Tudo devido a fraudes com deepfake.
Entre 163 casos públicos, pessoas comuns representavam 34% das vítimas. Quase tanto quanto os 41% que eram celebridades ou políticos. Qualquer um pode ser o próximo.
Os golpistas estão a tornar-se bons nisso. Alguns segundos da sua voz? É tudo o que precisam. Eles conseguem copiá-lo com 85% de precisão. Os vídeos falsos? Quase 70% das pessoas não conseguem perceber que são falsos.
Em fevereiro de 2025, um responsável financeiro em Hong Kong acreditou num vídeo falso do seu CEO. Perdeu $25 milhões. E 32% dos casos envolviam conteúdo inadequado falso para chantagem. Somos vulneráveis.
Os danos são de múltiplas camadas. O dinheiro perdido poderá atingir $40 bilhões anualmente até 2027.
A confiança está a erodir-se também. Cerca de 14% dos deepfakes são usados para manipulação política. Outros 13% disseminam informações falsas. As pessoas confiam menos no conteúdo digital a cada dia.
O dano psicológico pode ser o pior de todos. Especialmente para os mais velhos. Muitas vítimas dizem que o trauma mental dói mais do que a perda financeira.
Informação Importante Sobre Sasha Alexander e Deepfakes
Sasha Alexander negou estar em quaisquer deepfakes. Em abril de 2017, ela abordou falsas alegações nas redes sociais. Disse "Not fake news" sobre a cobertura legítima do seu trabalho.
A tecnologia de deepfake continua a melhorar. Cria vídeos que parecem reais. Figuras públicas como Alexander muitas vezes tornam-se alvos sem consentimento. Levanta questões éticas sérias.
Tenha cuidado com qualquer conteúdo de "deepfake de celebridades" online. Normalmente criado sem permissão. Pode fazer parte de golpes para atrair você para sites perigosos.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Grupo de Fraude de Hong Kong Usando Deepfakes Exposto – Fingiu Ser Mulheres Solteiras Ricas
Cadernos apreendidos. Milhões desaparecidos.
A polícia de Hong Kong acaba de desmantelar uma operação de fraude que usava IA para enganar as vítimas. Eles apreenderam cerca de 3,37 milhões de dólares no processo. Os cadernos que encontraram? Coisas de fazer abrir os olhos. Esses criminosos estavam usando deepfakes para parecerem mais credíveis. Bastante sofisticado.
A Isca
Elas se passaram por ricas mulheres solteiras. Inventaram histórias sobre aprender japonês. Falaram sobre golfe. Mencionaram vinhos caros que valem mais de 12.850 dólares por garrafa. Tudo anotado nesses cadernos apreendidos.
A polícia prendeu 31 pessoas ligadas a este grupo. Eles criaram mulheres atraentes com aparência realista usando IA. Depois, usaram essas personas falsas para golpes de romance. Armadilhas de investimento também.
Deepfakes a Causar Caos
"Esta combinação de tecnologia e engenharia social é um pouco preocupante," diz Byron Boston, ex-policia e CEO da Crypto Track. Estas imagens de IA tornam os golpistas mais convincentes. Permitem-lhes executar esquemas mais complexos.
Boston mencionou um caso em que vídeos falsos de figuras públicas ajudaram a roubar criptomoedas. Não é bom.
Jovens Alvos
Parece que eles foram atrás de jovens à procura de dinheiro rápido. As vítimas pensavam que estavam a falar com mulheres perfeitas de Taiwan, Singapura, Malásia. Nem perto.
Lutar de Volta? Não é Fácil
Boston pensa que o trabalho em equipe e a ação rápida são importantes aqui. Mas muitos departamentos de polícia locais nos EUA não têm as ferramentas adequadas. Não conseguem rastrear criptomoedas roubadas bem. Cooperação internacional? Limitada.
Esses criminosos habilidosos em tecnologia continuam a ser uma dor de cabeça para as forças de segurança em todo o lado.
Vazamento de Dados do Co-Fundador da Solana: Vulnerabilidade KYC ou Extorsão com Deepfake?
Raj Gokal foi gravemente atingido. O cofundador da Solana teve os seus documentos de identificação vazados no Instagram em maio de 2025. Pedido de resgate? 40 Bitcoin. Isso equivale a cerca de 4,36 milhões de dólares.
A comunidade cripto entrou em pânico. Levanta grandes questões sobre a segurança do KYC. Talvez deepfakes gerados por IA? Não está totalmente claro onde tudo começou.
🚨A Ascensão dos Golpes Cripto de Deepfake: $200M Desaparecido em Silêncio
Imagine Elon Musk a prometer-lhe 10 BTC...
Exceto que não era ele. 👀
Isto é a fraude cripto 2.0—potenciada por IA e assustadoramente realista.
🔥 $200M Desaparecido no Q3 2025 — Como Aconteceu
O Relatório Anti-Golpe diz que 87 redes de deepfake foram desmanteladas em toda a Ásia. Elas usaram vídeos de IA e clones de voz do Musk, executivos de criptomoedas, até mesmo reguladores. Lançamentos de tokens falsos. Sorteios. "Verificações de airdrop."
Fica pior.
A GoPlus descobriu golpistas enviando pequenas transferências de teste—como 1,50$—para a sua carteira. Faz parecer legítimo.
Então?
Você aprova algo ruim.
💥 Carteira vazia.
🧠 Fique Atento a Estes Sinais de Alerta
✔ Vídeos de criptomoedas de celebridades? Verifique a conta primeiro.
✔ Airdrops aleatórios ou envios de teste? Ignorá-los.
✔ Ninguém legítimo vai enviar mensagens a pedir frases-semente. Nunca.
Inteligência artificial na fraude cripto: quando a voz não é sua, mas soa como você
Os deepfakes continuam a melhorar. Os esquemas de criptomoeda continuam a ficar mais inteligentes. Recentemente, hackers fingiram ser um fundador de blockchain. Usaram uma voz de IA falsa. Convenceram alguém a instalar malware. Perderam mais de $2 milhões. Parecia tão real. Até os profissionais são enganados.
Isto acontece muito agora. A IA torna a fraude mais fácil para todos. Até para pessoas que não sabem programar. Basta pedir a um chat de IA para criar um site de phishing. Feito.
Deepfakes são assustadores. Primeiro trimestre de 2025? Cerca de $200 milhões em danos de criptomoeda. Qualquer um pode falsificar uma voz agora. Só precisa saber quem imitar.
Não são apenas deepfakes. Pessoal de segurança encontrou este malware—DRENADOR DE CARTEIRA STEALTH APRIMORADO. Supostamente feito por IA. Código complexo. Eficaz. Mas esse nome? Tão básico. Mostra que os próprios hackers não são tão habilidosos. Eles apenas sabem como usar IA.
Boas notícias? A proteção também está a melhorar. Numa competição de hackers, descobriram que os agentes de IA têm fraquezas. Mais de um milhão de tentativas de hackeamento mostraram milhares de problemas. Isso significa que ainda temos uma chance se tivermos boas pessoas de segurança.
A maioria dos ataques funciona porque as vítimas ignoram a proteção básica. A tecnologia é importante, mas ter consciência é ainda mais importante. As pessoas continuam a ser a nossa principal defesa contra essas ameaças.
Crise de Segurança dos Deepfakes: $200 Milhões Perdidos em 2025, Fraude de IA Torna-se Inimigo Público
Os números estão disponíveis. $200 milhões desapareceram em apenas três meses de 2025. Tudo devido a fraudes com deepfake.
Entre 163 casos públicos, pessoas comuns representavam 34% das vítimas. Quase tanto quanto os 41% que eram celebridades ou políticos. Qualquer um pode ser o próximo.
Os golpistas estão a tornar-se bons nisso. Alguns segundos da sua voz? É tudo o que precisam. Eles conseguem copiá-lo com 85% de precisão. Os vídeos falsos? Quase 70% das pessoas não conseguem perceber que são falsos.
Em fevereiro de 2025, um responsável financeiro em Hong Kong acreditou num vídeo falso do seu CEO. Perdeu $25 milhões. E 32% dos casos envolviam conteúdo inadequado falso para chantagem. Somos vulneráveis.
Os danos são de múltiplas camadas. O dinheiro perdido poderá atingir $40 bilhões anualmente até 2027.
A confiança está a erodir-se também. Cerca de 14% dos deepfakes são usados para manipulação política. Outros 13% disseminam informações falsas. As pessoas confiam menos no conteúdo digital a cada dia.
O dano psicológico pode ser o pior de todos. Especialmente para os mais velhos. Muitas vítimas dizem que o trauma mental dói mais do que a perda financeira.
Informação Importante Sobre Sasha Alexander e Deepfakes
Sasha Alexander negou estar em quaisquer deepfakes. Em abril de 2017, ela abordou falsas alegações nas redes sociais. Disse "Not fake news" sobre a cobertura legítima do seu trabalho.
A tecnologia de deepfake continua a melhorar. Cria vídeos que parecem reais. Figuras públicas como Alexander muitas vezes tornam-se alvos sem consentimento. Levanta questões éticas sérias.
Tenha cuidado com qualquer conteúdo de "deepfake de celebridades" online. Normalmente criado sem permissão. Pode fazer parte de golpes para atrair você para sites perigosos.