Apple、児童ポルノスキャン機能をWebページから削除するも計画に変更はなしと発言

    icloud

    icloud
     
    物議を醸していた、iCloudの児童の性的虐待コンテンツ(CSAM)画像の自動検出機能に関する記述が、Appleの子供の安全に関するWebページから削除されました。これについて、Appleは「計画に変更はなし」と答えた、と伝えられています。

    記述が密かにそっくり削除

    Appleは今年8月、子供を守るための3つの新たな新機能を発表しました。そのうちの一つは、先日正式版がリリースされたiOS15.2で利用可能となった「メッセージ」アプリのヌード検出機能です。
     
    他にも、ユーザーのiCloud写真ライブラリを自動スキャンし、アメリカの非営利団体のデータベースと照合し通報する機能、子供に有害な検索を警告する機能が計画に含まれていましたが、前者の真の自動スキャン機能についての記述が、「子供たちの保護を拡充(Expanded Protections for Children)」と題したWebページからそっくり削除されていることが判明しました。

    計画に変更はなし?

    以前機能の延期が報じられたこともあり、Appleは機能の実装を諦めたのではないかとの憶測が飛び交いましたが、Appleから計画に変更はないとの返答が得られたようです。
     
    今回の件について米メディアThe VergeがAppleにコメントを求めたところ、広報担当者のシェーン・バウアー氏から「9月のAppleの立ち位置から何も変化はない」との答えが返ってきたとのことです。
     
    写真の自動スキャン機能は、以前からプライバシーの侵害が懸念されていたことで知られています。
     
     
    Source:The Verge
    Photo:Apple
    (lexi)

    この記事がお役に立ったらシェアお願いします

    この記事を書いた人

    ARラボ出身の猫愛好家。往年のMacユーザーで、iPhone使用歴は10年以上。

    特集

    [PR]オフィシャルサイト

    目次