Apple、CSAM検出とメッセージスキャンに関するFAQを公開
Appleは、先週発表したiCloud PhotosのCSAM検出機能とメッセージのコミュニケーションセーフティ機能について、ユーザーのプライバシーに関する懸念を払拭することを目的としたFAQ「Expanded Protections for Children」を公開しました
「これらの機能を発表して以来、プライバシー保護団体や子どもの安全に関する団体を含む多くの関係者から、この新しいソリューションへの支持が表明されており、一部の方からは質問も寄せられています」とFAQには書かれています
FAQより:
2つ目の機能であるiCloud PhotosでのCSAM検出は、既知のCSAM画像と一致する写真以外の情報をAppleに提供することなく、CSAMをiCloud Photosから排除するように設計されています。CSAM画像は、米国を含むほとんどの国で所持が違法とされています。この機能は、写真の保存にiCloud Photosを使用することを選択したユーザーにのみ影響します。iCloud Photosの使用を選択していないユーザーには影響はありません
2つ目の機能であるiCloud PhotosでのCSAM検出は、既知のCSAM画像と一致する写真以外の情報をAppleに提供することなく、CSAMをiCloud Photosから排除するように設計されています。CSAM画像は、米国を含むほとんどの国で所持が違法とされています。この機能は、写真の保存にiCloud Photosを使用することを選択したユーザーにのみ影響します。iCloud Photosの使用を選択していないユーザーには影響はありません
CSAM以外の画像をシステムに「注入」して、CSAM以外のことでアカウントにフラグを立てることはできますか?
マッチングに使用される画像ハッシュは、児童安全団体によって取得され、検証された、既知の既存のCSAM画像のセットです。Appleは、既知のCSAM画像のハッシュを追加することはありません。「万が一、システムが既知のCSAM画像と一致しない画像にフラグを立てた場合でも、アカウントは無効化されず、NCMECへの報告も行われません
LEAVE A REPLY