Apple、iCloud Photosに保存された既知のCSAMを検出する物議を醸した計画を放棄
WIRED US版が伝えたところによると、Appleは「iCloudフォト」でエンドツーエンドの暗号化を可能にしたほか、「iCloudフォト」に保存されている既知の児童性的虐待コンテンツを検出するという、物議を醸していた計画を放棄したと発表しました
Appleの声明文全文
昨年提案した児童保護の取り組みに対するフィードバックを集めるために専門家と幅広く協議した後、2021年12月に最初に提供した通信安全機能への投資を深めています
さらに、以前に提案したiCloud写真用のCSAM検出ツールを進めないことを決定しました、企業が個人データをあさることなく子どもたちを守ることができます
私たちは、政府や子どもの権利擁護団体、その他の企業と協力して、若者を守り、プライバシーの権利を守り、インターネットを子どもたちと私たち全員にとってより安全な場所にするための支援を続けていきます
2021年8月、Appleは児童の安全のための新機能として、iCloud写真に保存されている既知のCSAM画像を検出するシステム、メッセージアプリで性的に露骨な写真をぼかすコミュニケーション安全オプション、そしてSiriの児童搾取リソースを含む、三つの新機能の計画を発表しました
Communication Safetyは2021年12月にiOS 15.2で米国で公開され、その後英国、カナダ、オーストラリア、ニュージーランドにも拡大し、Siriのリソースも利用できるが、CSAM検出は結局公開されませんでした
Appleは当初、CSAM検出機能を2021年末までにiOS 15とiPadOS 15のアップデートで実装するとしていましたが、顧客、支援団体、研究者などからのフィードバックを理由に最終的に延期していました、しかし、一年間の沈黙を経て、AppleはCSAM検出機能の計画を完全に放棄しました
AppleはCSAM検出システムが “ユーザーのプライバシーを考慮して設計されている “と約束していました
このシステムは、子供の安全に関する組織からの「既知の CSAM 画像ハッシュのデータベースを使用してデバイス上で照合」を実行し、Apple はこれを「ユーザーのデバイスに安全に保存される判読不能な一連のハッシュ」に変換するはずでした
(Via MacRumors.)
LEAVE A REPLY