1734273295
2024-12-15 14:14:00
- ディープフェイク自撮り写真は従来の検証システムをバイパスできるようになりました
- 詐欺師は AI を悪用して合成 ID を作成しています
- 組織は高度な動作ベースの検出方法を採用する必要がある
最新の世界的ななりすまし詐欺レポート AU10TIX ~の新たな波を明らかにする なりすまし詐欺、主に AI ベースの攻撃の産業化によって推進されています。
このレポートは、2024年7月から9月にかけて数百万件の取引を分析し、各分野のデジタルプラットフォーム、特にソーシャルメディア、決済、仮想通貨が前例のない課題にどのように直面しているかを明らかにしている。
詐欺戦術は、単純な文書偽造から、従来の検証システムを回避できる高度な合成 ID、ディープフェイク画像、自動ボットへと進化しました。
2024 年の米国大統領選挙に向けて、ソーシャル メディア プラットフォームでは自動ボット攻撃が劇的に増加しました。レポートによると、2024 年第 3 四半期のすべての詐欺行為の 28% がソーシャル メディア攻撃であり、第 1 四半期のわずか 3% から大幅に増加したことが明らかになりました。
これらの攻撃は、偽情報と大規模な世論操作に焦点を当てています。 AU10TIX によれば、これらのボット主導の偽情報キャンペーンでは、検出を回避するために高度な生成 AI (GenAI) 要素が採用されており、この革新により攻撃者は従来の検証システムを回避しながら作戦を拡大できるようになりました。
GenAI を利用した攻撃は 2024 年 3 月にエスカレートし始め、9 月にピークに達し、虚偽の物語や扇動的なコンテンツを広めることで世間の認識に影響を与えていると考えられています。
報告書の中で最も衝撃的な発見の 1 つは、100% ディープフェイク合成セルフィーの出現に関するものです。これは、検証システムをバイパスする目的で、本物の顔の特徴を模倣するために作成された超現実的な画像です。
従来、セルフィーは生体認証の信頼できる方法と考えられていました。 認証というのも、顔画像を説得力を持って偽造するために必要な技術は、ほとんどの詐欺師には手の届かないものだったからです。
AU10TIX は、これらの合成セルフィーが従来の KYC (顧客確認) 手順に独特の課題をもたらしていることを強調しています。この変化は、今後、顔照合テクノロジーのみに依存している組織は、その検出方法を再評価し、強化する必要がある可能性があることを示唆しています。
さらに、詐欺師は AI を使用して、「イメージ テンプレート」攻撃を利用してさまざまな合成 ID を生成することが増えています。これらには、単一の ID テンプレートを操作して、ランダム化された写真要素、文書番号、その他の個人識別子を備えた複数の一意の ID を作成することが含まれます。これにより、攻撃者は AI を活用して合成 ID 作成を拡張することで、プラットフォーム全体で不正なアカウントを迅速に作成できます。
決済部門では、第 3 四半期の不正行為率が第 2 四半期の 52% から 39% に減少しました。 AU10TIX は、この進歩は規制監視と法執行機関の介入の強化によるものであると考えています。しかし、直接的な攻撃が減少したにもかかわらず、決済業界は依然として多くの詐欺師が最も頻繁に標的となるセクターであり、強化されたセキュリティによって阻止され、第 3 四半期のすべての攻撃の 31% を占めた暗号市場に攻撃の方向を変えています。
AU10TIX は、組織が従来の文書ベースの検証方法を超えて移行することを推奨しています。重要な推奨事項の 1 つは、標準の ID チェックよりも詳細な動作ベースの検出システムを採用することです。ログイン ルーチン、トラフィック ソース、その他の固有の行動の手がかりなどのユーザー行動のパターンを分析することで、企業は不正行為の可能性を示す異常を特定できます。
「詐欺師はこれまで以上に急速に進化しており、特にソーシャルメディアや決済分野において、AIを活用して攻撃を拡大し実行しています」とAU10TIXのCEO、ダン・イェルシャルミ氏は述べた。
「企業がセキュリティを強化するためにAIを使用している一方で、犯罪者は同じテクノロジーを武器にして合成自撮り写真や偽造文書を作成しており、検出はほぼ不可能になっています。」
あなたも気に入るかもしれません
#を利用したなりすまし攻撃が生体認証セキュリティ #システムを欺いている
