Egress の報告書 Phishing Threat Trends Report によると、AI 検出ツールではフィッシングメールの 4 分の 3 近くについて、チャットボットが生成したものかどうかを識別できないそうだ
(プレスリリース、
BetaNews の記事)。
検出ツールは大規模言語モデル (LLM) を使用するため、少なくとも 250 文字以上のテキストを必要とするものが多い。フィッシングメールは 44.9% が 250 文字未満であり、250 文字以上であっても 500 文字未満のものが 26.5% に上るという。攻撃者はチャットボットの出力だとわかりにくくするために表現の置き換えなどの手法を用いることもあるが、AI 検出ツールではそれ以前の問題として 71.4% のフィッシングメールを確実に検証できないか、まったく検証できないとのことだ。
| セキュリティ
| 人工知能
|
関連ストーリー:
ナイジェリア詐欺にもAIパワー
2023年09月20日
Google Authenticatorの同期機能がフィッシング詐欺の被害を拡大したという話
2023年09月18日
米国ではAIによるクローン音声がすでに犯罪に使われている
2023年08月08日
OpenAI、AIが書いたテキストを識別するツールの公開を中止
2023年07月28日
サイバー犯罪用生成型AIツール「WormGPT」
2023年07月19日
OpenAI、テキストを書いたのが AI か人間かを区別するよう学習させた分類ツールを公開
2023年02月03日
Source: スラッシュドット