Apple、児童ポルノスキャン機能をWebページから削除するも計画に変更はなしと発言

icloud
 
物議を醸していた、iCloudの児童の性的虐待コンテンツ(CSAM)画像の自動検出機能に関する記述が、Appleの子供の安全に関するWebページから削除されました。これについて、Appleは「計画に変更はなし」と答えた、と伝えられています。

記述が密かにそっくり削除

Appleは今年8月、子供を守るための3つの新たな新機能を発表しました。そのうちの一つは、先日正式版がリリースされたiOS15.2で利用可能となった「メッセージ」アプリのヌード検出機能です。
 
他にも、ユーザーのiCloud写真ライブラリを自動スキャンし、アメリカの非営利団体のデータベースと照合し通報する機能、子供に有害な検索を警告する機能が計画に含まれていましたが、前者の真の自動スキャン機能についての記述が、「子供たちの保護を拡充(Expanded Protections for Children)」と題したWebページからそっくり削除されていることが判明しました。

計画に変更はなし?

以前機能の延期が報じられたこともあり、Appleは機能の実装を諦めたのではないかとの憶測が飛び交いましたが、Appleから計画に変更はないとの返答が得られたようです。
 
今回の件について米メディアThe VergeがAppleにコメントを求めたところ、広報担当者のシェーン・バウアー氏から「9月のAppleの立ち位置から何も変化はない」との答えが返ってきたとのことです。
 
写真の自動スキャン機能は、以前からプライバシーの侵害が懸念されていたことで知られています。
 
 
Source:The Verge
Photo:Apple
(lexi)

モバイルバージョンを終了