Apple、猛反発されたiCloudの児童ポルノ検出機能を実装しないまま廃止

Yusuke Sakakura

Yusuke Sakakura

Yusuke Sakakura

ブログメディア「携帯総合研究所」を運営しています。学生時代に開設して今年が16年目。スマートフォンの気になる最新情報をいち早くお届けします。各キャリア・各メーカーの発表会に参加し、取材も行います。SEの経験を活かして料金シミュレーターも開発しています。

2022/12/08 21:45
Apple、猛反発されたiCloudの児童ポルノ検出機能を実装しないまま廃止

日本時間12月8日、Appleが子どもを性的虐待から守ることを目的にiCloudにアップロードした写真を解析する機能の廃止を発表しました。

同機能はiOS 15の新機能として昨年8月に発表されたものの、ユーザーのプライバシーを侵害し、本来であれば不可能な暗号化データへのアクセスを可能にするバックドアに等しいものとして猛反発を喰らい発表の1ヶ月後にはリリースを延期することに。

そして、ついにAppleは提供しないまま実装を断念したようです。

Appleが提供するはずだった子どもを性的虐待から守るための機能は複数の機能から構成されています。

1つはメッセージアプリで性的な写真を送受信するとぼかしが入り、警告が表示されるというもの。さらに、性的な画像を送ろうとすると事前に警告が表示され、無視して送信すると保護者に通知が届きます。

性的な画像の検出はプライバシーに配慮してネットを介さずデバイス上で行われ、Appleが画像にアクセスすることはできません。

もう1つはiCloud上に保存されたデータを対象にCSAM(Child Sexual Abuse Material)ーーいわゆる児童ポルノがないかを探して検出された場合は関係当局に報告するというもの。CSAMの検出には関係機関によるデータベースとの照合によって行われ、誤検出率は1兆分の1未満と説明されていました。

今回、提供中止が発表されたのは後者のiCloud上にアップロードしたデータのCSAM検出機能です。

WIREDによるとAppleは「企業が個人のデータを調査しなくても子どもたちを守ることは可能で、私たちは政府や児童擁護団体、その他の企業と協力して若者を守り、プライバシー権を守り、すべての人にとってインターネットをより安全な場所にするための支援を続けていく」とコメントしているとのこと。

Googleで見つけやすく
  • Googleで優先するソースに追加すると、携帯総合研究所の新しい記事を見つけやすくなります。
  • 最新ニュース、独自の解説、レビューを見逃さないために、ぜひ追加してください。
Googleで優先するソースとして追加する
投稿規約
  • チャットサポートではありませんので、質問は必ず記事を読んでから投稿してください。
  • 状況が分かるように、できるだけ具体的に書いてください。「できません」だけでは判断が難しいため、表示されているメッセージや試したことを書いていただけると助かります。
  • 誹謗中傷や権利侵害にあたる内容は投稿しないでください。悪質な場合は、必要に応じて適切な対応を行うことがあります。
  • 攻撃的・侮辱的・過激な表現、他の方が不快に感じる表現を含むコメントは承認しない場合があります。
  • VPNを利用した投稿や、同じ内容の連続投稿は承認されない場合があります。

コメントを残す

(任意)

あなたにおすすめ