日本時間12月8日、Appleが子どもを性的虐待から守ることを目的にiCloudにアップロードした写真を解析する機能の廃止を発表しました。
同機能はiOS 15の新機能として昨年8月に発表されたものの、ユーザーのプライバシーを侵害し、本来であれば不可能な暗号化データへのアクセスを可能にするバックドアに等しいものとして猛反発を喰らい発表の1ヶ月後にはリリースを延期することに。
そして、ついにAppleは提供しないまま実装を断念したようです。
Appleが提供するはずだった子どもを性的虐待から守るための機能は複数の機能から構成されています。
1つはメッセージアプリで性的な写真を送受信するとぼかしが入り、警告が表示されるというもの。さらに、性的な画像を送ろうとすると事前に警告が表示され、無視して送信すると保護者に通知が届きます。
性的な画像の検出はプライバシーに配慮してネットを介さずデバイス上で行われ、Appleが画像にアクセスすることはできません。
もう1つはiCloud上に保存されたデータを対象にCSAM(Child Sexual Abuse Material)ーーいわゆる児童ポルノがないかを探して検出された場合は関係当局に報告するというもの。CSAMの検出には関係機関によるデータベースとの照合によって行われ、誤検出率は1兆分の1未満と説明されていました。
今回、提供中止が発表されたのは後者のiCloud上にアップロードしたデータのCSAM検出機能です。
WIREDによるとAppleは「企業が個人のデータを調査しなくても子どもたちを守ることは可能で、私たちは政府や児童擁護団体、その他の企業と協力して若者を守り、プライバシー権を守り、すべての人にとってインターネットをより安全な場所にするための支援を続けていく」とコメントしているとのこと。
コメントを残す