Apple、児童虐待写真検出機能の導入を中止

Child Safety

Child Safety
 
Appleは2021年にiOS15などでの導入を発表、物議を醸した、児童虐待写真検出機能の導入を、完全に断念したことがわかりました。

2021年に導入を発表

Appleのソフトウェア・エンジニアリング担当上級副社長のクレイグ・フェデリギ氏が、The Wall Street Journalのジョアナ・スターン記者のインタビューにおいて明かしています。
 
Appleは2021年に、iCloud内のデータをスキャンして、児童への性的虐待(CSAM:Child Sexual Abuse Material)として報告された画像を検出する機能を、iOS15などのOSで追加すると発表しました。

WSJのインタビューで導入中止を認める

しかし政治的弾圧への転用の危険性プライバシー侵害の可能性が指摘され、Appleは発表から約1カ月後の9月には同機能の導入延期を発表、2021年末には子供の安全に関するWebページから、児童の性的虐待コンテンツ(CSAM)画像の自動検出機能に関する記述を削除しました。
 
そして今回、フェデリギ氏はWSJのインタビューにおいて、児童虐待写真検出システムの開発を中止したと明言しています。

 
 
Source:WSJ via 9to5Mac
(lunatic)

この記事がお役に立ったらシェアお願いします

この記事を書いた人

元某業界新聞社の記者。その後フリーライターとして各方面で執筆、英日翻訳家としての著書も多数。2014年から本メディアでライター、編集記者として活動中。アメリカ在住(現在は日本に滞在中)。iPhone使用歴は12年以上。

特集

目次