ガジェット

Apple、米国内のデバイスで児童性的虐待画像をスキャンするなど子供を守る取り組みを強化

Apple が米国内の Apple デバイスを対象として、子供を性的虐待から守る取り組みの強化を発表した(Apple – Child Safety9to5Mac の記事Mac Rumors の記事The Verge の記事)。

取り組みの中心となるのは自動性的虐待素材 (CSAM) の拡散防止だ。まず、「メッセージ」アプリでは子供が性的に露骨な写真を送受信しようとすると警告して保護者にも通知し、受信した写真にはぼかしがかけられる。性的に露骨な写真はデバイス上の機械学習によって検出され、Apple に写真が送信されることはない。

また、iOS /iPadOS デバイスで写真を iCloud 写真へ保存する際には、全米失踪・被搾取児童センター (NCMEC) などが提供する既知の CSAM 画像のハッシュとの照合をデバイス上で実行する。照合結果は暗号化されたセーフティーバウチャーに格納されて写真とともに iCloud 写真へ保存される。Apple は iCloud 写真に保存された CSAM コンテンツが閾値を超えた場合にのみセーフティーバウチャーへのアクセスが可能となり、確認の上でアカウントの無効化や NCMEC への通報などを行うとのこと。

最後はオンラインでの危険を避けるための Siri と検索による 児童と保護者へのリソース提供だ。Siri と検索はユーザーが CSAM 関連の検索を実行しようとしたときの介入も行う。これらの機能は iOS 15 / iPadOS 15 / watchOS 8 / macOS Montereyで利用可能になる。米国以外での提供に関しては国や地域ごとに決定するとのこと。

しかし、善意の計画であっても悪用される可能性があるため、EFFエドワード・スノーデン氏、WhatsApp 責任者のウィル・キャスカート氏、ジョンズ・ホプキンズ大学で教鞭をとる暗号専門家のマシュー・グリーン氏などをはじめとして、さまざまな懸念が示されている。主な懸念点としては誤検知やハッシュのコリジョンによる攻撃、独裁政権による悪用、テキストへの対象拡大といったものが挙げられる。

すべて読む

| アップルセクション

| セキュリティ

| MacOSX

| アップル

| 暗号

| iOS

| プライバシ
|
この記事をTwitterでつぶやく
この記事をFacebookで共有
この記事をGoogle Plusで共有
このエントリーをはてなブックマークに追加

関連ストーリー:

NSO Group のスパイウェアがジャーナリスト監視に使われていた問題で、iOS のセキュリティがイメージほど高くないことにも注目が集まる
2021年07月23日

FacebookアプリとInstagramアプリ、iOS 14.5でユーザートラッキング許可を求める理由の表示を開始
2021年05月04日

開発者の正直さに依存するApp Storeのプライバシー情報表示、どれぐらい意味がある?
2021年02月01日

アプリのユーザートラッキング許可を求めるiOS 14のプロンプト、一部で表示されるようになる
2020年12月27日

EFF曰く、スモールビジネスを守ると称してAppleを批判するFacebookのキャンペーンはお笑い草
2020年12月23日

Apple、App Storeで表示するアプリのプライバシー方針情報の受付を開始
2020年11月08日

米国と欧州の日付フォーマットの違いにより、児童ポルノ送信容疑をかけられたスペインの家族
2020年09月17日

TumblrアプリがApp Storeから突然消えた理由は児童ポルノ
2018年11月23日

Google、児童ポルノ画像検出APIを公開。一定時間の検出率が大幅に増加
2018年09月07日

オーストラリア、Facebookでのリベンジポルノ拡散を未然に防ぐ取り組み
2017年11月11日

違法コンテンツ確認業務が原因でPTSDになったとして、元担当者がMicrosoftを提訴
2017年01月14日

Microsoft、OneDriveに保存されていた児童ポルノ画像を通報、ユーザーが逮捕される
2014年08月09日

Facebook、児童ポルノの拡散防止へ画像自動検出・ブロック機能を導入
2011年05月24日

Source: スラッシュドット