ノートパソコンが押収された。何百万も消えた。香港警察は、被害者を欺くためにAIを使用した詐欺操作を暴露しました。彼らはその過程で約337万ドルを押収しました。彼らが見つけたノートブック?衝撃的な内容です。これらの犯罪者は、より信じられやすくするためにディープフェイクを使用していました。かなり高度です。## おとり彼女たちは裕福な独身女性として振る舞った。日本語を学んでいるという作り話をした。ゴルフについて話した。1本あたり12,850ドル以上の高級ワインについて言及した。それらは押収されたノートにすべて書き留められていた。警察はこのグループに関連する31人を逮捕しました。彼らはAIを使ってリアルに見える魅力的な女性を作成しました。そして、これらの偽の人格をロマンス詐欺に使用しました。投資の罠もです。## ディープフェイクが混乱を引き起こす"この技術と社会工学の組み合わせは少し問題だ," と言うのは、元警官でありCrypto TrackのCEOであるバイロン・ボストンです。これらのAI画像は詐欺師をより説得力のあるものにします。彼らにより複雑なスキームを実行させましょう。ボストンは、著名人の偽のビデオが暗号通貨を盗むのに役立った事例を1つ挙げました。良くないですね。## 若いターゲット彼らは素早くお金を求める若者を狙っていたようです。被害者は、台湾、シンガポール、マレーシアの完璧な女性と話していると思っていました。しかし、全く違いました。## 戦い返す?簡単ではないボストンは、ここでチームワークと迅速な行動が重要だと考えています。しかし、アメリカの多くの地方警察は適切なツールを持っていません。盗まれた暗号通貨をうまく追跡できません。国際的な協力?限られています。これらの技術に精通した犯罪者たちは、どこにでもいる警備当局にとって頭痛の種である。# ソラナ共同創設者データ漏洩:KYCの脆弱性か、ディープフェイクの恐喝か?ラジ・ゴカルは大きな打撃を受けました。ソラナの共同創設者は、2025年5月にインスタグラムでID書類が流出しました。身代金の要求?40ビットコイン。それは約436万ドルです。暗号コミュニティは動揺しました。KYCのセキュリティに関する大きな疑問を提起します。もしかしたらAI生成のディープフェイクでしょうか? すべてがどこから始まったのかは完全には明らかではありません。# 🚨ディープフェイク暗号詐欺の増加: $200M 静かに消えたイーロン・マスクがあなたに10 BTCを約束することを想像してください...それは彼ではなかった。👀これは暗号詐欺2.0です—AI駆動で恐ろしいほどリアルです。## 🔥 $200M 2025年Q3に消えた — どのように起こったのかアンチスキャムレポートによると、アジア全体で87のディープフェイクリングが摘発されました。彼らはAIビデオやマスク、暗号エグゼクティブ、さらには規制当局の声のクローンを使用しました。偽のトークンのローンチ。ギブアウェイ。「エアドロップの検証」。悪化します。GoPlusは、詐欺師があなたのウォレットに1.50ドルのような小さなテスト送金を送っていることを発見しました。それは本物のように感じさせます。それでは?あなたは悪いことを承認します。💥 ウォレットが空です。## 🧠 これらの赤信号に注意してください✔ 有名人の暗号動画?まずアカウントを確認してください。✔ ランダムなエアドロップやテスト送信?無視してください。✔ 誰も合法的な人がシードフレーズを尋ねるためにメッセージを送ることはありません。# 暗号詐欺における人工知能:声はあなたのものではないが、あなたのように聞こえる時ディープフェイクはますます進化しています。暗号詐欺もますます巧妙になっています。最近、ハッカーがブロックチェーンの創始者を装いました。偽のAI音声を使い、誰かをだましてマルウェアをインストールさせました。$2 百万以上を失いました。それは本物のように見えました。プロでさえも騙されることがあります。今、これがよく起こります。AIは誰にでも詐欺を簡単にします。コーディングができない人でも。AIチャットにフィッシングサイトを作るように頼むだけです。完了。ディープフェイクは恐ろしい。2025年の第1四半期?約$200 百万の暗号被害。今では誰でも声を偽装できる。誰を模倣するかを知っているだけでいい。それは単なるディープフェイクだけではありません。セキュリティの専門家たちはこのマルウェアを発見しました—ENHANCED STEALTH WALLET DRAINER。AIによって作られたと言われています。複雑なコード。効果的。しかしその名前?とても基本的です。ハッカー自身があまりスキルがないことを示しています。彼らはただAIを使う方法を知っているだけです。良いニュースですか?保護も改善されています。あるハッカーコンテストで、AIエージェントに弱点があることがわかりました。100万回以上のハッキング試行が数千の問題を示しました。つまり、優れたセキュリティ担当者がいれば、まだチャンスがあるということです。ほとんどの攻撃は、被害者が基本的な保護を無視するために機能します。技術も重要ですが、認識することの方がもっと重要です。人々はこれらの脅威に対する私たちの主な防御です。# ディープフェイクセキュリティ危機: $200 百万が2025年に失われ、AI詐欺が公共の敵となる数字が出ました。$200 百万が2025年のわずか3か月で消えました。すべてはディープフェイク詐欺からです。163件の公にされた事件の中で、一般人は34%の被害者を占めていました。ほぼ同じ数で、41%は有名人や政治家でした。次は誰でもなり得ます。詐欺師たちはこれが得意になってきています。あなたの声の数秒間?それだけで十分です。彼らはあなたを85%の精度でコピーできます。偽の動画?ほぼ70%の人々がそれが偽物であることを見分けられません。2025年2月、香港の財務担当者が自社のCEOの偽のビデオを信じました。$25 百万を失いました。そして、32%のケースが脅迫のための偽の不適切なコンテンツに関与していました。私たちは脆弱です。損害は多層的です。失われたお金は、2027年までに$40 億に達する可能性があります。信頼も失われつつあります。ディープフェイクの約14%が政治的操作に使用されています。さらに13%は誤った情報を広めています。人々はデジタルコンテンツを毎日ますます信頼しなくなっています。心理的な被害は、すべての中で最もひどいかもしれません。特に高齢者にとっては。多くの被害者は、精神的なトラウマが金銭的な損失よりも傷つくと言っています。# サーシャ・アレクサンダーとディープフェイクに関する重要な情報サーシャ・アレクサンダーは、いかなるディープフェイクにも関与していないことを否定しました。2017年4月に、彼女はソーシャルメディア上の虚偽の主張について対処しました。彼女は、彼女の仕事に関する正当な報道について「偽のニュースではない」と述べました。ディープフェイク技術は進化し続けています。リアルに見える動画を作成します。アレクサンダーのような公人は、同意なしにターゲットになることがよくあります。深刻な倫理的問題を引き起こします。オンラインの「セレブリティディープフェイク」コンテンツには注意してください。通常、許可なく作成されています。危険なウェブサイトに誘導する詐欺の一部である可能性があります。
香港の詐欺グループがディープフェイクを使用して暴露される – 裕福な独身女性になりすました
ノートパソコンが押収された。何百万も消えた。
香港警察は、被害者を欺くためにAIを使用した詐欺操作を暴露しました。彼らはその過程で約337万ドルを押収しました。彼らが見つけたノートブック?衝撃的な内容です。これらの犯罪者は、より信じられやすくするためにディープフェイクを使用していました。かなり高度です。
おとり
彼女たちは裕福な独身女性として振る舞った。日本語を学んでいるという作り話をした。ゴルフについて話した。1本あたり12,850ドル以上の高級ワインについて言及した。それらは押収されたノートにすべて書き留められていた。
警察はこのグループに関連する31人を逮捕しました。彼らはAIを使ってリアルに見える魅力的な女性を作成しました。そして、これらの偽の人格をロマンス詐欺に使用しました。投資の罠もです。
ディープフェイクが混乱を引き起こす
"この技術と社会工学の組み合わせは少し問題だ," と言うのは、元警官でありCrypto TrackのCEOであるバイロン・ボストンです。これらのAI画像は詐欺師をより説得力のあるものにします。彼らにより複雑なスキームを実行させましょう。
ボストンは、著名人の偽のビデオが暗号通貨を盗むのに役立った事例を1つ挙げました。良くないですね。
若いターゲット
彼らは素早くお金を求める若者を狙っていたようです。被害者は、台湾、シンガポール、マレーシアの完璧な女性と話していると思っていました。しかし、全く違いました。
戦い返す?簡単ではない
ボストンは、ここでチームワークと迅速な行動が重要だと考えています。しかし、アメリカの多くの地方警察は適切なツールを持っていません。盗まれた暗号通貨をうまく追跡できません。国際的な協力?限られています。
これらの技術に精通した犯罪者たちは、どこにでもいる警備当局にとって頭痛の種である。
ソラナ共同創設者データ漏洩:KYCの脆弱性か、ディープフェイクの恐喝か?
ラジ・ゴカルは大きな打撃を受けました。ソラナの共同創設者は、2025年5月にインスタグラムでID書類が流出しました。身代金の要求?40ビットコイン。それは約436万ドルです。
暗号コミュニティは動揺しました。KYCのセキュリティに関する大きな疑問を提起します。もしかしたらAI生成のディープフェイクでしょうか? すべてがどこから始まったのかは完全には明らかではありません。
🚨ディープフェイク暗号詐欺の増加: $200M 静かに消えた
イーロン・マスクがあなたに10 BTCを約束することを想像してください...
それは彼ではなかった。👀
これは暗号詐欺2.0です—AI駆動で恐ろしいほどリアルです。
🔥 $200M 2025年Q3に消えた — どのように起こったのか
アンチスキャムレポートによると、アジア全体で87のディープフェイクリングが摘発されました。彼らはAIビデオやマスク、暗号エグゼクティブ、さらには規制当局の声のクローンを使用しました。偽のトークンのローンチ。ギブアウェイ。「エアドロップの検証」。
悪化します。
GoPlusは、詐欺師があなたのウォレットに1.50ドルのような小さなテスト送金を送っていることを発見しました。それは本物のように感じさせます。
それでは?
あなたは悪いことを承認します。
💥 ウォレットが空です。
🧠 これらの赤信号に注意してください
✔ 有名人の暗号動画?まずアカウントを確認してください。
✔ ランダムなエアドロップやテスト送信?無視してください。
✔ 誰も合法的な人がシードフレーズを尋ねるためにメッセージを送ることはありません。
暗号詐欺における人工知能:声はあなたのものではないが、あなたのように聞こえる時
ディープフェイクはますます進化しています。暗号詐欺もますます巧妙になっています。最近、ハッカーがブロックチェーンの創始者を装いました。偽のAI音声を使い、誰かをだましてマルウェアをインストールさせました。$2 百万以上を失いました。それは本物のように見えました。プロでさえも騙されることがあります。
今、これがよく起こります。AIは誰にでも詐欺を簡単にします。コーディングができない人でも。AIチャットにフィッシングサイトを作るように頼むだけです。完了。
ディープフェイクは恐ろしい。2025年の第1四半期?約$200 百万の暗号被害。今では誰でも声を偽装できる。誰を模倣するかを知っているだけでいい。
それは単なるディープフェイクだけではありません。セキュリティの専門家たちはこのマルウェアを発見しました—ENHANCED STEALTH WALLET DRAINER。AIによって作られたと言われています。複雑なコード。効果的。しかしその名前?とても基本的です。ハッカー自身があまりスキルがないことを示しています。彼らはただAIを使う方法を知っているだけです。
良いニュースですか?保護も改善されています。あるハッカーコンテストで、AIエージェントに弱点があることがわかりました。100万回以上のハッキング試行が数千の問題を示しました。つまり、優れたセキュリティ担当者がいれば、まだチャンスがあるということです。
ほとんどの攻撃は、被害者が基本的な保護を無視するために機能します。技術も重要ですが、認識することの方がもっと重要です。人々はこれらの脅威に対する私たちの主な防御です。
ディープフェイクセキュリティ危機: $200 百万が2025年に失われ、AI詐欺が公共の敵となる
数字が出ました。$200 百万が2025年のわずか3か月で消えました。すべてはディープフェイク詐欺からです。
163件の公にされた事件の中で、一般人は34%の被害者を占めていました。ほぼ同じ数で、41%は有名人や政治家でした。次は誰でもなり得ます。
詐欺師たちはこれが得意になってきています。あなたの声の数秒間?それだけで十分です。彼らはあなたを85%の精度でコピーできます。偽の動画?ほぼ70%の人々がそれが偽物であることを見分けられません。
2025年2月、香港の財務担当者が自社のCEOの偽のビデオを信じました。$25 百万を失いました。そして、32%のケースが脅迫のための偽の不適切なコンテンツに関与していました。私たちは脆弱です。
損害は多層的です。失われたお金は、2027年までに$40 億に達する可能性があります。
信頼も失われつつあります。ディープフェイクの約14%が政治的操作に使用されています。さらに13%は誤った情報を広めています。人々はデジタルコンテンツを毎日ますます信頼しなくなっています。
心理的な被害は、すべての中で最もひどいかもしれません。特に高齢者にとっては。多くの被害者は、精神的なトラウマが金銭的な損失よりも傷つくと言っています。
サーシャ・アレクサンダーとディープフェイクに関する重要な情報
サーシャ・アレクサンダーは、いかなるディープフェイクにも関与していないことを否定しました。2017年4月に、彼女はソーシャルメディア上の虚偽の主張について対処しました。彼女は、彼女の仕事に関する正当な報道について「偽のニュースではない」と述べました。
ディープフェイク技術は進化し続けています。リアルに見える動画を作成します。アレクサンダーのような公人は、同意なしにターゲットになることがよくあります。深刻な倫理的問題を引き起こします。
オンラインの「セレブリティディープフェイク」コンテンツには注意してください。通常、許可なく作成されています。危険なウェブサイトに誘導する詐欺の一部である可能性があります。