Appleが8月5日に発表した児童性的虐待コンテンツ(CSAM)機能は、各所からプライバシーの扱いにおいて議論を呼んでいる。具体的にはAppleや政府などの機関がこの機能を使用してユーザーのデータにアクセスするのではないかとする懸念だ。このためAppleは8日、この機能に関するFAQを公開した(FAQページ[PDF]、MIT Tech Review、ITmedia、CNET)。
曰くこのCSAM対策機能は、データベースに登録されている既知のCSAM画像と完全一致した場合のみ検出する仕組みであり、政府からの拡張要求には応じないとしている。CSAM画像検出以外の目的でシステムが使用されるのを防ぐための仕組みとして、画像リストは全米行方不明・搾取児童センター(NCMEC)やその他の児童安全組織によって提供されているものだけを使用すると主張する。
しかし、TheVergeの記事によれば、Appleは過去に各国の政府に譲歩してきた経緯がある。暗号化された電話を許可していないサウジアラビア、パキスタンなどの国ではFaceTimeのないiPhoneを販売しており、中国では政府からの要求でApp Storeから何千ものアプリを削除し、ユーザーデータを該当国内に移動する要求に関しても応えてきたと指摘している(TheVerge)。
この記事では、今回公開されたFAQでは、メッセージをスキャンしてCSAMを探す機能では、法執行機関と情報を共有しないとしているが、このツールの焦点が性的に露骨な画像のみであることをどうやって保証しているのかについては言及されておらず、ユーザー側の懸念にも回答し切れていないとしている。
| セキュリティ
| OS
| 携帯電話
| アップル
| プライバシ
|
関連ストーリー:
Apple、米国内のデバイスで児童性的虐待画像をスキャンするなど子供を守る取り組みを強化
2021年08月08日
中国政府、オンラインプラットフォームにソフト児童ポルノステッカーパックの配布を禁ずる
2021年07月23日
USA TODAYの特定記事を読んだ人物の情報提出を要求していたFBI、令状を取り下げ
2021年06月07日
FacebookアプリとInstagramアプリ、iOS 14.5でユーザートラッキング許可を求める理由の表示を開始
2021年05月04日
違法・有害情報相談センター曰く、Twitterは5ちゃんねるよりも有害情報の相談件数が多い
2021年03月29日
性的写真を撮れないスマホを作ってほしい、NPO団体がアップルとグーグルに要望準備
2021年01月25日
Google、児童ポルノ画像検出APIを公開。一定時間の検出率が大幅に増加
2018年09月07日
Source: スラッシュドット