La police de Hong Kong vient de démanteler une opération de fraude utilisant l'IA pour tromper les victimes. Ils ont saisi environ 3,37 millions de dollars dans le processus. Les carnets qu'ils ont trouvés ? Des révélations surprenantes. Ces criminels utilisaient des deepfakes pour sembler plus crédibles. Assez sophistiqué.
L'appât
Elles se faisaient passer pour des femmes célibataires riches. Elles ont inventé des histoires sur l'apprentissage du japonais. Elles parlaient de golf. Elles mentionnaient des vins raffinés d'une valeur de plus de 12 850 $ par bouteille. Tout était écrit dans ces carnets saisis.
La police a arrêté 31 personnes liées à ce groupe. Ils ont créé des femmes attrayantes à l'apparence réaliste avec l'IA. Puis ils ont utilisé ces fausses personnalités pour des escroqueries amoureuses. Des pièges à investissements aussi.
Les deepfakes causent des ravages
"Cette combinaison de technologie et d'ingénierie sociale est un peu troublante," déclare Byron Boston, ancien policier et PDG de Crypto Track. Ces images générées par l'IA rendent les escrocs plus convaincants. Cela leur permet de mettre en œuvre des stratagèmes plus complexes.
Boston a mentionné un cas où de fausses vidéos de personnalités publiques ont aidé à voler des cryptomonnaies. Pas bon.
Jeunes Cibles
Il semble qu'ils se soient attaqués aux jeunes cherchant de l'argent rapide. Les victimes pensaient parler à des femmes parfaites de Taïwan, de Singapour, de Malaisie. Pas du tout.
Se défendre ? Pas facile
Boston pense que le travail d'équipe et une action rapide sont importants ici. Mais de nombreux départements de police locaux aux États-Unis n'ont pas les bons outils. Ils ne peuvent pas bien suivre les cryptomonnaies volées. Coopération internationale ? Limitée.
Ces criminels férus de technologie restent un casse-tête pour les forces de sécurité partout.
Fuite de données du co-fondateur de Solana : vulnérabilité KYC ou extorsion par deepfake ?
Raj Gokal a été gravement touché. Le co-fondateur de Solana a vu ses documents d'identité fuiter sur Instagram en mai 2025. Demande de rançon ? 40 Bitcoin. C'est environ 4,36 millions de dollars.
La communauté crypto s'est affolée. Soulève de grandes questions sur la sécurité KYC. Peut-être des deepfakes générés par l'IA ? Pas tout à fait clair d'où tout cela a commencé.
🚨L'essor des arnaques crypto deepfake : $200M Disparu dans le silence
Imaginez Elon Musk vous promettant 10 BTC...
Sauf que ce n'était pas lui. 👀
C'est une escroquerie crypto 2.0—alimentée par l'IA et effrayamment réaliste.
🔥 $200M Disparu au T3 2025 — Comment cela s'est produit
Le rapport Anti-Scam indique que 87 réseaux de deepfake ont été démantelés à travers l'Asie. Ils utilisaient des vidéos IA et des clones vocaux de Musk, d'exécutifs de la crypto, voire de régulateurs. Lancements de faux tokens. Tirages au sort. "Vérifications d'airdrop."
Ça s'aggrave.
GoPlus a trouvé des escrocs envoyant de petits transferts tests—comme 1,50 $—vers votre portefeuille. Cela semble légitime.
Alors ?
Vous approuvez quelque chose de mauvais.
💥 Portefeuille vide.
🧠 Attention à ces drapeaux rouges
✔ Vidéos de crypto-monnaie de célébrités ? Vérifiez d'abord le compte.
✔ Airdrops aléatoires ou envois de test ? Ignorez-les.
✔ Personne de légitime ne vous enverra de message en demandant des phrases de récupération. Jamais.
L'intelligence artificielle dans la fraude crypto : quand la voix n'est pas la vôtre, mais qu'elle ressemble à la vôtre
Les deepfakes deviennent de plus en plus réalistes. Les arnaques cryptographiques deviennent de plus en plus intelligentes. Récemment, des hackers se sont fait passer pour un fondateur de blockchain. Ils ont utilisé une fausse voix générée par IA. Ils ont convaincu quelqu'un d'installer un logiciel malveillant. Ils ont perdu plus de $2 millions. Cela avait l'air si réel. Même les pros se font avoir.
Cela arrive beaucoup maintenant. L'IA facilite la fraude pour tout le monde. Même les personnes qui ne savent pas coder. Demandez simplement à un chat IA de créer un site de phishing. Fait.
Les deepfakes sont effrayants. Premier trimestre de 2025 ? Environ $200 millions de dommages en crypto. Maintenant, n'importe qui peut imiter une voix. Il suffit de savoir qui imiter.
Ce n'est pas seulement des deepfakes. Les experts en sécurité ont découvert ce malware—ENHANCED STEALTH WALLET DRAINER. Supposément créé par l'IA. Code complexe. Efficace. Mais ce nom ? Tellement basique. Cela montre que les hackers eux-mêmes ne sont pas si compétents. Ils savent juste comment utiliser l'IA.
Bonne nouvelle ? La protection s'améliore aussi. Lors d'un concours de hackers, ils ont découvert que les agents IA ont des faiblesses. Plus d'un million de tentatives de piratage ont montré des milliers de problèmes. Cela signifie que nous avons encore une chance si nous avons de bons experts en sécurité.
La plupart des attaques réussissent parce que les victimes ignorent les protections de base. La technologie a son importance, mais la prise de conscience compte encore plus. Les gens restent notre principale défense contre ces menaces.
Crise de sécurité des deepfakes : $200 millions perdus en 2025, la fraude par IA devient l'ennemi public
Les chiffres sont là. $200 millions disparus en seulement trois mois de 2025. Tout cela à cause de la fraude par deepfake.
Parmi 163 cas publics, des personnes ordinaires représentaient 34 % des victimes. Presque autant que les 41 % qui étaient des célébrités ou des politiciens. N'importe qui pourrait être le prochain.
Les escrocs s'améliorent dans ce domaine. Quelques secondes de votre voix ? C'est tout ce dont ils ont besoin. Ils peuvent vous copier avec une précision de 85 %. Les fausses vidéos ? Près de 70 % des gens ne peuvent pas dire qu'elles sont fausses.
En février 2025, un responsable financier à Hong Kong a cru à une vidéo truquée de leur PDG. Perte de $25 millions. Et 32 % des cas impliquaient un contenu inapproprié falsifié pour du chantage. Nous sommes vulnérables.
Les dommages sont multilayer. L'argent perdu pourrait atteindre $40 milliards par an d'ici 2027.
La confiance s'érode aussi. Environ 14 % des deepfakes sont utilisés pour la manipulation politique. Un autre 13 % diffusent de fausses informations. Les gens font de moins en moins confiance au contenu numérique chaque jour.
Le préjudice psychologique pourrait être le pire de tous. Surtout pour les personnes âgées. De nombreuses victimes disent que le traumatisme mental fait plus de mal que la perte financière.
Informations importantes concernant Sasha Alexander et les deepfakes
Sasha Alexander a nié être impliquée dans des deepfakes. En avril 2017, elle a abordé de fausses allégations sur les réseaux sociaux. Elle a déclaré "Pas de fausses nouvelles" à propos de la couverture légitime de son travail.
La technologie des deepfakes continue de s'améliorer. Elle crée des vidéos qui semblent réelles. Des personnalités publiques comme Alexander deviennent souvent des cibles sans consentement. Cela soulève de graves questions éthiques.
Faites attention à tout contenu "deepfake de célébrité" en ligne. Généralement réalisé sans autorisation. Cela pourrait faire partie d'escroqueries pour vous attirer vers des sites Web dangereux.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Groupe de fraude de Hong Kong utilisant des deepfakes exposé – prétendu être des femmes célibataires riches
Carnets saisis. Millions envolés.
La police de Hong Kong vient de démanteler une opération de fraude utilisant l'IA pour tromper les victimes. Ils ont saisi environ 3,37 millions de dollars dans le processus. Les carnets qu'ils ont trouvés ? Des révélations surprenantes. Ces criminels utilisaient des deepfakes pour sembler plus crédibles. Assez sophistiqué.
L'appât
Elles se faisaient passer pour des femmes célibataires riches. Elles ont inventé des histoires sur l'apprentissage du japonais. Elles parlaient de golf. Elles mentionnaient des vins raffinés d'une valeur de plus de 12 850 $ par bouteille. Tout était écrit dans ces carnets saisis.
La police a arrêté 31 personnes liées à ce groupe. Ils ont créé des femmes attrayantes à l'apparence réaliste avec l'IA. Puis ils ont utilisé ces fausses personnalités pour des escroqueries amoureuses. Des pièges à investissements aussi.
Les deepfakes causent des ravages
"Cette combinaison de technologie et d'ingénierie sociale est un peu troublante," déclare Byron Boston, ancien policier et PDG de Crypto Track. Ces images générées par l'IA rendent les escrocs plus convaincants. Cela leur permet de mettre en œuvre des stratagèmes plus complexes.
Boston a mentionné un cas où de fausses vidéos de personnalités publiques ont aidé à voler des cryptomonnaies. Pas bon.
Jeunes Cibles
Il semble qu'ils se soient attaqués aux jeunes cherchant de l'argent rapide. Les victimes pensaient parler à des femmes parfaites de Taïwan, de Singapour, de Malaisie. Pas du tout.
Se défendre ? Pas facile
Boston pense que le travail d'équipe et une action rapide sont importants ici. Mais de nombreux départements de police locaux aux États-Unis n'ont pas les bons outils. Ils ne peuvent pas bien suivre les cryptomonnaies volées. Coopération internationale ? Limitée.
Ces criminels férus de technologie restent un casse-tête pour les forces de sécurité partout.
Fuite de données du co-fondateur de Solana : vulnérabilité KYC ou extorsion par deepfake ?
Raj Gokal a été gravement touché. Le co-fondateur de Solana a vu ses documents d'identité fuiter sur Instagram en mai 2025. Demande de rançon ? 40 Bitcoin. C'est environ 4,36 millions de dollars.
La communauté crypto s'est affolée. Soulève de grandes questions sur la sécurité KYC. Peut-être des deepfakes générés par l'IA ? Pas tout à fait clair d'où tout cela a commencé.
🚨L'essor des arnaques crypto deepfake : $200M Disparu dans le silence
Imaginez Elon Musk vous promettant 10 BTC...
Sauf que ce n'était pas lui. 👀
C'est une escroquerie crypto 2.0—alimentée par l'IA et effrayamment réaliste.
🔥 $200M Disparu au T3 2025 — Comment cela s'est produit
Le rapport Anti-Scam indique que 87 réseaux de deepfake ont été démantelés à travers l'Asie. Ils utilisaient des vidéos IA et des clones vocaux de Musk, d'exécutifs de la crypto, voire de régulateurs. Lancements de faux tokens. Tirages au sort. "Vérifications d'airdrop."
Ça s'aggrave.
GoPlus a trouvé des escrocs envoyant de petits transferts tests—comme 1,50 $—vers votre portefeuille. Cela semble légitime.
Alors ?
Vous approuvez quelque chose de mauvais.
💥 Portefeuille vide.
🧠 Attention à ces drapeaux rouges
✔ Vidéos de crypto-monnaie de célébrités ? Vérifiez d'abord le compte.
✔ Airdrops aléatoires ou envois de test ? Ignorez-les.
✔ Personne de légitime ne vous enverra de message en demandant des phrases de récupération. Jamais.
L'intelligence artificielle dans la fraude crypto : quand la voix n'est pas la vôtre, mais qu'elle ressemble à la vôtre
Les deepfakes deviennent de plus en plus réalistes. Les arnaques cryptographiques deviennent de plus en plus intelligentes. Récemment, des hackers se sont fait passer pour un fondateur de blockchain. Ils ont utilisé une fausse voix générée par IA. Ils ont convaincu quelqu'un d'installer un logiciel malveillant. Ils ont perdu plus de $2 millions. Cela avait l'air si réel. Même les pros se font avoir.
Cela arrive beaucoup maintenant. L'IA facilite la fraude pour tout le monde. Même les personnes qui ne savent pas coder. Demandez simplement à un chat IA de créer un site de phishing. Fait.
Les deepfakes sont effrayants. Premier trimestre de 2025 ? Environ $200 millions de dommages en crypto. Maintenant, n'importe qui peut imiter une voix. Il suffit de savoir qui imiter.
Ce n'est pas seulement des deepfakes. Les experts en sécurité ont découvert ce malware—ENHANCED STEALTH WALLET DRAINER. Supposément créé par l'IA. Code complexe. Efficace. Mais ce nom ? Tellement basique. Cela montre que les hackers eux-mêmes ne sont pas si compétents. Ils savent juste comment utiliser l'IA.
Bonne nouvelle ? La protection s'améliore aussi. Lors d'un concours de hackers, ils ont découvert que les agents IA ont des faiblesses. Plus d'un million de tentatives de piratage ont montré des milliers de problèmes. Cela signifie que nous avons encore une chance si nous avons de bons experts en sécurité.
La plupart des attaques réussissent parce que les victimes ignorent les protections de base. La technologie a son importance, mais la prise de conscience compte encore plus. Les gens restent notre principale défense contre ces menaces.
Crise de sécurité des deepfakes : $200 millions perdus en 2025, la fraude par IA devient l'ennemi public
Les chiffres sont là. $200 millions disparus en seulement trois mois de 2025. Tout cela à cause de la fraude par deepfake.
Parmi 163 cas publics, des personnes ordinaires représentaient 34 % des victimes. Presque autant que les 41 % qui étaient des célébrités ou des politiciens. N'importe qui pourrait être le prochain.
Les escrocs s'améliorent dans ce domaine. Quelques secondes de votre voix ? C'est tout ce dont ils ont besoin. Ils peuvent vous copier avec une précision de 85 %. Les fausses vidéos ? Près de 70 % des gens ne peuvent pas dire qu'elles sont fausses.
En février 2025, un responsable financier à Hong Kong a cru à une vidéo truquée de leur PDG. Perte de $25 millions. Et 32 % des cas impliquaient un contenu inapproprié falsifié pour du chantage. Nous sommes vulnérables.
Les dommages sont multilayer. L'argent perdu pourrait atteindre $40 milliards par an d'ici 2027.
La confiance s'érode aussi. Environ 14 % des deepfakes sont utilisés pour la manipulation politique. Un autre 13 % diffusent de fausses informations. Les gens font de moins en moins confiance au contenu numérique chaque jour.
Le préjudice psychologique pourrait être le pire de tous. Surtout pour les personnes âgées. De nombreuses victimes disent que le traumatisme mental fait plus de mal que la perte financière.
Informations importantes concernant Sasha Alexander et les deepfakes
Sasha Alexander a nié être impliquée dans des deepfakes. En avril 2017, elle a abordé de fausses allégations sur les réseaux sociaux. Elle a déclaré "Pas de fausses nouvelles" à propos de la couverture légitime de son travail.
La technologie des deepfakes continue de s'améliorer. Elle crée des vidéos qui semblent réelles. Des personnalités publiques comme Alexander deviennent souvent des cibles sans consentement. Cela soulève de graves questions éthiques.
Faites attention à tout contenu "deepfake de célébrité" en ligne. Généralement réalisé sans autorisation. Cela pourrait faire partie d'escroqueries pour vous attirer vers des sites Web dangereux.