iOS15で導入予定の画像およびメッセージのスキャンはプライバシー侵害にあたると警鐘

    プライバシー

    プライバシー
     
    子どもを性的虐待から守るため、Appleは性的内容を含むメッセージへの警告や、児童ポルノ画像などの検出機能などをiOS15で導入すると発表しました。これに対して、プライバシーの重要性を訴えてきたエドワード・スノーデン氏や電子フロンティア財団(EFF)が、プライバシーの侵害にあたると警鐘を鳴らしています。

    iCloudとiMessageをスキャン

    Apple子どものための保護拡大の取り組みは、iCloudiMessageの両プラットフォーム上で実施されます。
     
    iCloud写真ライブラリのスキャンは、非営利団体の全米行方不明・被搾取児童センター(NCMEC)が把握している、児童への性的虐待として報告された画像(CSAM:Child Sexual Abuse Material)と一致するものがないか調べるというものです。
     
    iMessageのメッセージのスキャンは、未成年者が所有するアカウントが性的表現を含むコンテンツを送受信する際に、親に通知するという内容です。この機能は親によりオン/オフの切り替えが可能となる見通しです。

    バックドアの設置に他ならない

    プライバシーの重要性を訴えるEFFは、スキャン機能の導入後でもプライバシーとセキュリティが保たれるかをAppleがいくら説明したとしても、「バックドアの設置に他ならない」と一蹴しています。
     
    EFFいわく、AppleのiCloud写真スキャンは、類似する画像を識別するために画像のハッシュ値を計算するMicrosoftのPhotoDNAに似ているとのことです。
     
    唯一異なるのは、Appleのスキャンはオンデバイスで行われることです。それぞれのデバイスに上述のNCMEC CSAMデータベースがアップロードされ、児童への性的虐待として報告された既知の画像と一致するかの照合が行われます。照合した写真の数が一定数を超えると、問題の画像はAppleの調査班へと送信されます。調査班が確認を終えると、画像はNCMECへと送られ、ユーザーアカウントが停止されます。
     
    結論として、iCloudにアップロードされる画像はすべてスキャンされるということを意味します。「これはすべてのiCloud写真ユーザーのプライバシーの低下であり、改善ではない」と、EFFは機能の実装には大きな代償が伴うと主張しています。

    エンドツーエンド暗号化されているとは言えなくなる?

    iMessageのスキャンは、送受信されるメッセージの内容に応じて送られる通知機能です。Appleが導入するオンデバイスの機械学習(ML)分類子が、“性的な表現を含む画像”を検出します。
     
    Appleによれば、米国内の家族アカウントを使用する13歳以下のユーザーがiMessageで性的な表現を含む画像を送信しようとした場合、“送信すれば親にコンテンツ内容が通知される”との警告が発せられるとのことです。13歳〜17歳のユーザーにも同様の警告が表示されますが、親に通知されることはないとされています。
     
    なお、13歳以下のユーザーがiMessageが“性的な表現を含む画像”を受信しようとした場合でも、親に通知されるとの警告が表示されます。
     
    EFFは、エンドツーエンド暗号化とは、メッセージの送信者と受信者のみが内容を見ることができるというもので、もし仮にオンデバイスで行われる機械学習アルゴリズムでも、仲介があれば真にエンドツーエンド暗号化されているとは言えなくなる、とコメントしています。

    検閲は児童ポルノ画像のみにとどまらない?

    内部告発者で、プライバシーの重要性を訴えてきたエドワード・スノーデン氏は、Appleの新ポリシーを“監視社会”と表現しており、「もし彼らが今日、児童ポルノ画像をスキャンできるなら、明日にはどんなものでもスキャンできるだろう」と、検閲がさらに拡大する可能性を指摘しています。
     


     
     
    Source:EFF via MacRumors
    Photo:Apple
    (lexi)

    この記事がお役に立ったらシェアお願いします

    この記事を書いた人

    ARラボ出身の猫愛好家。往年のMacユーザーで、iPhone使用歴は10年以上。

    特集

    [PR]オフィシャルサイト

    目次