Apple、メールに添付された児童ポルノ画像は2019年からスキャンしていた

Appleがデバイス上の児童への性的虐待・搾取(CSAM)画像をスキャンする技術を導入すると発表して議論を呼んでいますが、iCloudメールに添付された画像のスキャンは2019年から実施していたことをAppleが認めた、と9to5Macが報じています。
以前から児童保護に取り組んでいるApple
Appleは、iOS15など今秋公開予定の次期OSで、デバイス上に保存されている写真のハッシュ値が、既知のCSAM画像と一致するかを自動スキャンする技術を導入すると発表しています。
ただし、iCloud写真に保存されたクラウド上のデータはスキャンしないと説明しています。
以前から児童保護の取り組みを公表していたApple
米メディア9to5Macは、AppleのWebページのアーカイブに、Appleは子供のCSAM画像を検出し報告する目的で電子署名技術を使った画像マッチング技術を導入している、との説明文があると指摘しています。
また、2021年1月には、Appleの不正アクセス対策の責任者が、Appleは児童を性的虐待・搾取から保護する取り組みで成果をあげている、と語っていました。
9to5MacはAppleに、iCloud写真のデータをスキャンせずに、どのように画像のスキャンを行なっているのか照会したところ、iCloudメールの添付ファイルを2019年から実施しているとの回答があったとのことです。
サーバー通過時にスキャン
Appleの説明によると、iCloudメールの添付ファイルのスキャンは、送信と受信の双方が、Appleのサーバーを通過する際に行われているそうです。
また、スキャン対象は写真以外のごく一部のデータ(iCloudバックアップを除く)も含まれるそうですが、その詳細については明らかにされていません。
CSAMスキャンには懸念の声も
CSAMスキャン技術導入については、導入当初からAppleの意図とは別に、プライバシー侵害につながる危険性や、政府による検閲や弾圧に使われるのではないかとの懸念が表明されており、Apple従業員の間でも意見が割れています。
同技術に詳しい研究者も、まだ未完成な部分がある、と危険性を指摘しています。
Source:9to5Mac
(hato)