児童保護を目的としたiCloudの監視機能、Appleが延期を発表

児童 虐待 

児童 虐待 
 
児童虐待防止を目的としたiCloudの監視機能について、Appleは導入を延期すると発表しました。同機能はユーザープライバシーの検閲だとして、幅広い層からの反発にあっていました。

数カ月ヒヤリングの機会設けると発表

Apple8月上旬に発表したユーザーのiCloud監視機能は、Photoライブラリをスキャンして児童性的虐待コンテンツ(CSAM:Child Sexual Abuse Material)を検出するものです。監視はアルゴリズムが行うため写真を見ることなく振り分けができるほか、違法画像が一定数検知されるまでアカウント情報や写真について直接関知しない点をAppleは強調しましたが、多くのユーザーから批判や疑念が噴出しました。
 
とくにセキュリティ研究者やプライバシー保護団体からも、この仕組みを一旦導入してしまえば政治的転用に繋がりかねないとの指摘が相次ぎ、国際的なコンソーシアムも公開書簡で計画を断念するようAppleに求めていました。
 
こうした批判を受け、Appleは2日(現地時間)に声明を発表、さらに時間をかけて改善するべく導入計画を延期すると発表しました。
 

先月我々は、コミュニケーションツールを悪用して児童を誘ったり搾取したりする略奪者から子どもたちを守り、児童性的虐待コンテンツ(CSAM)の拡散を防ぐことを目的とした機能を発表しました。消費者、支援団体、研究者などからのフィードバックを受け、これらの極めて重要な児童保護機能をリリースする前に、我々は今後数カ月、意見収集と改善のためのさらなる時間を設けることにしました。

 
一連の児童保護機能は本来であれば、今年後半のiOS15、iPadOS15、watchOS8、macOS Montereyのリリースに合わせて米国から導入される予定でした。
 
改めて導入する時期は明らかになっていませんが、ティム・クック最高経営責任者(CEO)やクレイグ・フェデリギ副社長といった上級幹部の弁明にもかかわらず白紙化されてしまったということは、システムの設計自体が大きく見直される可能性もあります。
 
 
Source:MacRumors,Apple
(kihachi)

この記事がお役に立ったらシェアお願いします

この記事を書いた人

丸みを帯びたiPhone3GSの筐体に惚れ込み、Apple信者を誓ったのも今は昔。2014年から始めたライター業がきっかけで、気づけばXiaomiやHuaweiなど中華スマホにも手を出す浮気症に。

特集

目次