Apple、児童ポルノ検出機能に対する批判に反論、iOS15で導入予定

    apple ロゴ

    apple ロゴ
     
    英大手メディアBBCは8月10日、iOS15等で導入予定の「児童ポルノ検出機能」が批判されていることに対して、Appleが反論を行ったと報じました。

    子どもを性的虐待から守る

    Appleは現地時間8月5日、iOS15やiPadOS15等において、子どもを性的虐待から守るための機能を追加すると発表しました。
     
    Appleは、ユーザーがiCloudに保存している写真をスキャンし、子どもの性的虐待画像(児童ポルノ)を自動検出する機能を実装する予定です。
     
    児童ポルノが自動検出された場合は、Appleのスタッフによる確認作業を経て、非営利団体の全米行方不明・被搾取児童センター(NCMEC)に報告される可能性があります。
     
    プライバシー保護団体や活動家は、Appleに対し、「写真の自動検出機能が政治的に悪用される可能性がある」との懸念を表明し、導入を進めるAppleを批判しています。

    Appleが反論

    Appleは、児童保護機能を説明する「子どものための保護拡大(Expanded Protections for Children)」と題した特設ページにおいて、よくある質問と回答(FAQ)を記載したPDFファイルを公開しました。
     
    FAQでは「政府に強制され、Appleが児童ポルノ以外の画像を自動検出することはあり得るか」との質問に対し、Appleは「そのような政府要請に従うことは無い」と強く否定しました。
     
    またAppleは、ユーザーのプライバシーを低下させる政府要請を今までも断固拒否してきたとし、iCloud保存画像の検出対象を児童ポルノ以外に拡張することは無いと表明しています。
     
    一方でBBCは、Appleが2020年の12月末に中国のApp Storeから、政府当局からライセンスを取得できなかった39,000のゲームアプリを削除した事例に触れ、プライバシー保護団体の主張に言及しました。
     
    iOS15で導入される、iCloudの写真に対する児童ポルノ検出機能の是非については、今後も議論が続きそうです。
     
    なお、検出機能はまず米国で導入され、日本等の他国については今後各国の法制度等を検討の上で展開される予定です。
     
     
    Source:Apple(PDF) via BBC
    (seng)

    この記事がお役に立ったらシェアお願いします
    目次