iOS15で導入の児童ポルノスキャン機能、Apple従業員からも懸念の声

    Apple Park 2020年10月 AppleEvent

    Apple Park 2020年10月 AppleEvent
     
    AppleiOS15で導入すると発表した、児童への性的虐待画像をスキャンする機能については、政府による検閲につながるのでは、といった懸念が提起されていますが、Appleの従業員からも疑問の声が上がっている、とReutersが報じています。

    議論を呼んでいるAppleの児童ポルノスキャン機能

    Appleは先日、子供を守るための機能として、子どもが性的なメッセージを送受信しようとした場合に保護者に通知する機能や、児童への性的虐待画像(CSAM)として登録された画像のハッシュが一致する画像をスキャンする機能を今秋公開予定のiOS15に実装すると発表しました
     
    特にCSAM画像のスキャン機能については、政府による検閲や監視に使われる懸念や、Appleが標榜するプライバシーの尊重という方針との矛盾が指摘されて議論を呼んでおり、Appleの担当役員も内部向けメッセージで丁寧な説明が必要だとの認識を明かしています。
     
    Appleは最近、よくある質問と回答(FAQ)を公開し、政府による目的外の情報提供要請に従うことはない、と否定しています。
     
    CSAM画像のスキャン機能は当初、アメリカでのみ有効化し、他の国・地域には現地の法規制を踏まえて順次拡大する、iCloud写真を無効にしていた場合、同機能は有効化されない、とAppleは説明しています

    Appleの社内Slackスレッドでも懸念の声

    CSAM画像の自動スキャンについては、Appleの従業員からも懸念の声が多く寄せられている、と複数のApple従業員が匿名を条件にReutersに語っています。
     
    Apple従業員向けSlackの専用スレッドでは、数日間で800通以上のメッセージがやり取りされており、その多くは政府による検閲や弾圧に使われる可能性を心配しているそうです。
     
    スレッドには、このテーマはSlackで議論するのにふさわしくないのではないか、との意見も書き込まれているとのことです。
     
    一方で、非合法な画像を根絶するためにAppleの姿勢は妥当だ、とする意見もみられるそうです。

    コロナ禍をきっかけに全社的に導入されたSlack

    Appleは、2020年のパンデミックにより自宅勤務を推進するにあたり、Slackを全社的に導入しています。
     
    先日、リモートワークが続けられないなら退社するという書き込みや、Appleの人事部が禁止した賃金に関する社内アンケートには、Slackが使われていました。
     
     
    Source:Reuters, 9to5Mac
    (hato)

    この記事がお役に立ったらシェアお願いします
    目次