ガジェット

デバイス上で児童性的虐待コンテンツをスキャンするAppleの計画に反対する公開書状、7,000人以上が署名

headless 曰く、

先日 Apple が発表した米国内のデバイスで児童性的虐待素材 (CSAM) をスキャンする計画に対し、中止を求める公開書状への署名が 7,000 件を超えている。

計画は子供を性的虐待から守る取り組みを強化するもので、CSAM の拡散防止が中心に据えられている。しかし、誤検知やそれを狙った攻撃、テキストへの対象拡大や CSAM 以外への対象拡大、独裁政権による悪用などが懸念され、批判が相次いでいる。

公開書状では Apple に対し、1) コンテンツ監視技術のデプロイ中止と、2) エンドツーエンドの暗号化およびユーザーのプライバシーに関する約束を再確認する声明の発表を求めており、GitHub プロジェクト appleprivacyletter に Issue を送信することで署名できる。署名は Issue を確認の上で公開書状に追加されるため、12 日時点では数百件の署名が処理待ちとなっている。

Apple は懸念を払拭すべく FAQ を公開しているが、プロジェクトオーナーの Nadim Kobeissi 氏は 2 項目を引用して Apple の回答を批判している。まず、iCloud 写真を無効化すればスキャンは行われないとする Apple の説明に対し、Kobeissi 氏は 2021 年の現在に iCloud 写真を無効化することは現実的でないと指摘する。

また、CSAM スキャン技術が CSAM 以外に拡大されることはないとの説明に対しては、既にテロリストコンテンツを検出するハッシュが作られており、FBI の求めに応じて iCloud の暗号化計画を中止した Apple が政府による CSAM 以外のハッシュ追加要求を拒否するとは考えられないなどと述べている。

エンドツーエンドの暗号化やプライバシーに言及する FAQ 項目には触れておらず、公開書状の2番目の要求に応える内容ではないとみなしているようだ。

すべて読む

| YROセクション

| YRO

| クラウド

| アップル

| iPhone

| プライバシ
|
この記事をTwitterでつぶやく
この記事をFacebookで共有
この記事をGoogle Plusで共有
このエントリーをはてなブックマークに追加

関連ストーリー:

Apple、波紋を呼んだ児童虐待画像(CSAM)の検出技術に関してFAQを公開
2021年08月12日

Apple、米国内のデバイスで児童性的虐待画像をスキャンするなど子供を守る取り組みを強化
2021年08月08日

アプリのユーザートラッキング許可を求めるiOS 14のプロンプト、一部で表示されるようになる
2020年12月27日

Google、児童ポルノ画像検出APIを公開。一定時間の検出率が大幅に増加
2018年09月07日

Source: スラッシュドット