iCloudの児童性的虐待画像検知、国際団体が政治転用の懸念を指摘

児童 虐待 

児童 虐待 
 
Appleが悪意ある大人から児童を保護する目的で、ユーザーのiCloud内を監視する機能を発表したことについて、90以上の政策・権利団体からなる国際的なコンソーシアムは12日、同社が計画を断念するよう書簡を公開しました。

言論検閲や政治転用の恐れ

問題となっているのは、AppleがiOS15より導入すると発表している、iCloudに保存された違法画像を検知するためのシステムです。このシステムでは、アルゴリズムがユーザーのiCloud内を監視し、児童の性的虐待写真が非営利団体の全米行方不明・被搾取児童センター(NCMEC)に登録された情報と照合します。
 
この導入計画について、米国の非営利団体Center for Democracy & Technology(CDT)が組織するコンソーシアムは、将来的に言論検閲に利用されかねないとの懸念を公開書簡で発表しました。「これらの機能は児童を保護し、児童の性的虐待コンテンツ(CSAM)の拡散を抑制することを目的としているが、保障された言論の検閲に利用され、世界中の人々のプライバシーやセキュリティを脅かし、多くの児童に悲惨な結果をもたらしかねない」
 
公開書簡の署名者からは、CSAMのスキャンシステムが、法制度の異なる国で政治的だったり問題含みだったりするコンテンツを検索するために利用されるとの懸念も聞こえてきます。「このバックドア機能が組み込まれれば、政府はAppleに対し、他のアカウントへの通知や、露骨に性的であること以外の理由でも好ましくない画像を検出するよう強制することも可能だ」
 
この他にも同コンソーシアムは、ファミリーアカウントのiMessageで予定されている変更についても断念するよう求めています。この変更は、児童のメッセージに含まれるヌードを識別してぼかし、親に通知された場合のみ児童当人が閲覧できるようになるというものですが、コンソーシアムは杓子定規であるだけでなく、iMessageのエンドー・ツー・エンドの暗号化が破られることになると主張しています。

懸念を払拭したいApple

こうした批判や懸念は、Appleが発表した直後から、ユーザーだけでなくセキュリティ研究者やプライバシー保護団体によって数多く投げかけられてきました。
 
これに対してAppleは、画像検出システムの仕組みを説明したドキュメントやWebページを公開したほか、児童の性的虐待コンテンツのデータベースによってフラグが立てられた写真以外には拡大しないと明言してきました。ソフトウェアエンジニアリング担当上級副社長クレイグ・フェデリギ氏は「誤解が生じている」と述べ、アルゴリズムによって写真を見ることなく振り分けができる点、違法画像が一定数検知されるまでアカウント情報や写真についてAppleは直接関知しない点を強調しています。
 
しかし、依然としてこの技術が政治的分野に転用される可能性は残されているほか、米国以外では後日導入するとしているものの、中国やロシアなどの政府当局が要求する現地法を拒否してまで市場から撤退することに、Appleがこれまでも及び腰だったのも事実です。
 
 
Source:MacRumors,Reuters
(kihachi)

この記事がお役に立ったらシェアお願いします

この記事を書いた人

丸みを帯びたiPhone3GSの筐体に惚れ込み、Apple信者を誓ったのも今は昔。2014年から始めたライター業がきっかけで、気づけばXiaomiやHuaweiなど中華スマホにも手を出す浮気症に。

特集

目次