アップル、児童虐待画像の検出技術に関するFAQを公開

CNET Japan

 Appleは先週、次期ソフトウェアアップデートに、ユーザーの「iPhone」「iPad」「Mac」「Apple Watch」をスキャンし、「Photos」内に存在する児童性的虐待素材を検出する機能を追加すると発表して、波紋を呼んだ。この件について、同社は米国時間8月9日に新たな文書を公開し、この機能にまつわるプライバシーへの懸念を払拭しようとしている。

iPhone 12 Purple
提供:Sarah Tew/CNET

 「Expanded Protections for Children」(子どもたちに対する保護の拡大)と題するこの文書は、6ページからなり、この新機能に関するFAQ(よくある質問)で構成されている。

 「Appleの目標は、人々の安全を維持しつつ、人々に力を与え、人々の生活を豊かにする技術を創造することにある」と、その文書の冒頭の概要部分には記されている。「コミュニケーションツールを使って児童を勧誘して利用する悪人から児童を守り、児童性的虐待素材(CSAM)の拡散を制限したい」(同FAQ)

 同社は、この機能がどのように使用されるのかについて一部から懸念が示されていることを認め、「そうした疑問に答え、このプロセスの明瞭性と透明性を高める」ために、この文書を作成したとしている。

 Appleによると、写真をスキャンするこのCSAM保護機能は、「既知のCSAM画像と一致したもの以外の写真に関する情報をAppleに一切提供せずに、『iCloud Photos』からCSAMを排除することを目的に設計されている」という。そうした画像を所有する行為も、米国を含むほとんどの国において「違法」であると、同社は付け加えている。

 Appleは、この機能はiCloud Photosを使用して写真を保存するユーザーのみに適用される予定で、「iCloud Photosを使用することを選択していないユーザーには適用されない」としている。

 また、Appleによると、この機能は「端末上のその他のデータに対する影響」は一切なく、「『Messages』には適用されない」という。同社は、この機能をCSAM以外の画像に拡張することを目的とした各国政府からの要求には一切応じないつもりであることも強調している。

 「これまでに、ユーザーのプライバシーを損なうような政府命令の変更の構築や導入を求められたことがあるが、そうした要求は断固として拒否してきた。今後もそうした要求には応じないつもりだ」と同社は記している。

 ユーザーを正しく特定する精度については、「任意のアカウントに対してシステムが誤ってフラグを立てる確率は、1年に1兆分の1」で、同社は全米行方不明/被搾取児童センター(NCMEC)に報告する前に「人間による確認」を実施していると、Appleは述べている。「システムエラーやシステム攻撃によって、何の罪もない人がNCMECに報告されることはない」と同社は結論付けている。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

Source

タイトルとURLをコピーしました