特集
インフォメーション
Appleは2021年にiOS15などでの導入を発表、物議を醸した、児童虐待写真検出機能の導入を、完全に断念したことがわかりました。
Appleのソフトウェア・エンジニアリング担当上級副社長のクレイグ・フェデリギ氏が、The Wall Street Journalのジョアナ・スターン記者のインタビューにおいて明かしています。
Appleは2021年に、iCloud内のデータをスキャンして、児童への性的虐待(CSAM:Child Sexual Abuse Material)として報告された画像を検出する機能を、iOS15などのOSで追加すると発表しました。
しかし政治的弾圧への転用の危険性やプライバシー侵害の可能性が指摘され、Appleは発表から約1カ月後の9月には同機能の導入延期を発表、2021年末には子供の安全に関するWebページから、児童の性的虐待コンテンツ(CSAM)画像の自動検出機能に関する記述を削除しました。
そして今回、フェデリギ氏はWSJのインタビューにおいて、児童虐待写真検出システムの開発を中止したと明言しています。
元某業界新聞社の記者。その後フリーライターとして各方面で執筆、英日翻訳家としての著書も多数。2014年から本メディアでライター、編集記者として活動中。アメリカ在住(現在は日本に滞在中)。iPhone使用歴は12年以上。