ガジェット

AI検出ツールではフィッシングメールの4分の3近くを検証できない

Egress の報告書 Phishing Threat Trends Report によると、AI 検出ツールではフィッシングメールの 4 分の 3 近くについて、チャットボットが生成したものかどうかを識別できないそうだ
(プレスリリース
BetaNews の記事)。

検出ツールは大規模言語モデル (LLM) を使用するため、少なくとも 250 文字以上のテキストを必要とするものが多い。フィッシングメールは 44.9% が 250 文字未満であり、250 文字以上であっても 500 文字未満のものが 26.5% に上るという。攻撃者はチャットボットの出力だとわかりにくくするために表現の置き換えなどの手法を用いることもあるが、AI 検出ツールではそれ以前の問題として 71.4% のフィッシングメールを確実に検証できないか、まったく検証できないとのことだ。

すべて読む

| セキュリティセクション

| セキュリティ

| 人工知能
|
この記事をTwitterでつぶやく
この記事をFacebookで共有
この記事をGoogle Plusで共有
このエントリーをはてなブックマークに追加

関連ストーリー:

ナイジェリア詐欺にもAIパワー
2023年09月20日

Google Authenticatorの同期機能がフィッシング詐欺の被害を拡大したという話
2023年09月18日

米国ではAIによるクローン音声がすでに犯罪に使われている
2023年08月08日

OpenAI、AIが書いたテキストを識別するツールの公開を中止
2023年07月28日

サイバー犯罪用生成型AIツール「WormGPT」
2023年07月19日

OpenAI、テキストを書いたのが AI か人間かを区別するよう学習させた分類ツールを公開
2023年02月03日

Source: スラッシュドット