アップル、児童の性的虐待を防ぐための機能をOSに導入へ–「iCloud」の画像検出など

CNET Japan

 Appleは米国時間8月5日、ウェブサイトに新たなセクションを公開し、秋にリリースする見込みの各OSの最新版である「iOS 15」「iPad OS 15」「macOS Monterey」「WatchOS 8」で、児童の性的虐待コンテンツ(CSAM)の検出など3つの機能を導入すると発表した。児童を犯罪者から守り、CSAMの拡散を抑止することが目的だ。子どもの安全に詳しい専門家らの協力を得て開発したという。

 1つ目は、児童が「メッセージ」アプリで性的に露骨な写真を受信した可能性が高い場合、写真をすぐに表示せず、センシティブな内容かもしれないが本当に閲覧するかと確認する警告メッセージを表示する機能。性的に露骨な写真を送信しようとした場合にも警告を表示する。デバイス上で機械学習を利用する仕組みのため、Appleがメッセージにアクセスすることはない。

Messages
提供:Apple

 2つ目は、「iCloud」に保存されたCSAMを検出する機能で、全米行方不明・被搾取児童センター(NCMEC)が提供するデータベースを利用する。同社によると、この機能は「ユーザーのプライバシーに配慮して設計」されており、画像がiCloudにバックアップされる前にデバイス上で画像をスキャンする。CSAMが見つかったとプログラムが判断した場合には、Appleの担当者が確認した上でアカウントを無効化し、NCMECに通報する。

 3つ目は、「安全ではない状況」で支援を求めるのに役立つ情報を、「Siri」と検索で保護者や児童に提供するというもの。また、ユーザーがCSAMに関連するトピックを検索しようとした場合に「介入」し、そのトピックが有害であることを説明するとともに、支援のためのリソースを提供する。

 業界観測筋からは、児童搾取に対する同社の取り組みを称賛する声もあったが、全体主義的な政権に悪用されかねないシステムをAppleが構築しているおそれがあるという懸念も聞かれた。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

Source

タイトルとURLをコピーしました