ガジェット

超音波で自動運転自動車の物体検出を誤らせる「ポルターガイスト」攻撃

自動運転自動車が物体を検出する機械学習モデルに対し、超音波を用いて誤った結果を導くという「ポルターガイスト」攻撃の研究成果を中国・浙江大学などの研究グループが発表している(GitHub プロジェクトページThe Registerの記事論文: PDF)。

ポルターガイスト攻撃は研究チームが AMpLe (injecting physics into Adversarial Machine Learning) 攻撃と呼ぶ、機械学習モデルに対する物理的な攻撃の一つ。超音波のほか、可視光や赤外線、レーザー、電波、磁場、熱、液体などを用いてセンサーの出力を操作し、誤った結果を導くというものだ。今回の研究は現行の製品ではなく、まだ見ぬ将来の自律走行車がどのように映像スタビライズシステムへの音響攻撃を回避していくかの理解を深めることが目的だという。

映像スタビライザーの加速度センサーやジャイロスコープは音響共鳴攻撃に弱いことが知られており、ポルターガイスト攻撃もこの仕組みを用いてセンサーをコントロールし、被写体ぶれした映像を出力させる。機械学習モデルによる物体検出は映像のぶれの有無に左右されるため、攻撃者は物体を消す (Hiding Attacks: HA)・存在しない物体を作り出す (Creating Attacks: CA)・物体の種類を変える (Altering Attacks: AA)という3種類の攻撃が可能になる。

実験で使用した物体検出モデルは研究用の YOLO V3/V4/V5 と R-CNN、商用の Apollo で用いられている YOLO 3D の5種類。シミュレーションでの攻撃成功率は HA で100%、CA で87.9%、AA で95.1%。実際に走行する自動車で Samsung Galaxy S20 を用いた実験では HA 98.3%、CA 43.7%、AA 43.1%という結果になったとのこと。ポルターガイスト攻撃はさまざまな場面や天候、時刻、カメラ解像度にかかわらず安定した結果を出したそうだ。

すべて読む

| セキュリティセクション

| セキュリティ

| 人工知能

| アナウンス

| 交通
|
この記事をTwitterでつぶやく
この記事をFacebookで共有
この記事をGoogle Plusで共有
このエントリーをはてなブックマークに追加

関連ストーリー:

キューバで米大使館職員に健康被害を与えた「攻撃」が米国内でも発生していた
2021年05月03日

Amazon、実店舗用スマートショッピングカート「Amazon Dash Cart」を発表
2020年07月17日

Googleの自己進化するAI「AutoML Zero」
2020年04月17日

勾配降下法を使用する機械学習モデルに、誤った識別をさせるような入力を作成することが可能な問題
2020年03月31日

カメラやセンサーを騙すことでTeslaのAutopilotを混乱させる攻撃
2019年04月05日

自動車向けのレーザーセンシング装置が原因でデジカメのセンサーが損傷したという報告
2019年01月17日

欧州の火星探査車、サハラ砂漠で自律走行テストを実施
2018年12月27日

中国・寧波の歩行者信号無視監視システム、バスのラッピング広告に印刷された人物を違法横断者と誤認識
2018年11月24日

自動車の車載カメラ、「天下一品」の看板を進入禁止の標識と誤認識
2018年09月18日

スピーカから音を流すだけでHDDを破壊する音響攻撃「ブルーノート」
2018年06月01日

ディープラーニングによりラーメン二郎の店舗の識別に成功
2017年08月11日

Googleの有害コメント判定ツールを混乱させる方法
2017年03月05日

反捕鯨活動に対抗して超音波兵器が使用された
2009年02月08日

Source: スラッシュドット