Appleは、児童の性的な虐待を防止するため、児童の性的な画像(Child Sexual Abuse Material:CSAM)などを検出する3種類の機能を、同社製品であるiOS 15、iPadOS 15、watchOS 8、およびmacOS Montereyに、2021年後半より順次実装していくと発表した。
1つ目はメッセージアプリにおける実装で、性的に露骨な写真を送受信する際に、子供とその親に警告をするためのツール。この種のコンテンツを受信すると写真が自動的にぼやけ、子供には警告と役立つリソースが表示される。子供が見た場合、保護者に対しメッセージが送られる。子供が写真を送信する際も同様に警告が表示される。
この機能はデバイス上の機械学習機能を利用して、添付ファイルを分析しているため、Appleがメッセージにアクセスすることはできない。
2つ目はiCloudのフォトに保存されている既知のCSAM画像の検出。これにより、Appleはこれらの事例を、全米行方不明・虐待児童センター(National Center of Missing and Exploited Children:NCMEC)に報告できるようになる。
なお、検出はユーザーのプライバシーを念頭において設計されていると言い、NCMECおよびそのほかの自動安全組織によって提供される既知のCSAM画像のハッシュのデータベースを利用して、デバイス上の画像とマッチングを行なう。これにより、iCloudのフォトに保存される前にハッシュのマッチングが実行され、一致かどうかを判断する。
その後、画像の暗号化データとともに、一致結果をエンコードする暗号化された安全なバウチャーを作成し、iCloudにアップロードする。そしてシステムは「しきい値秘密共有」と呼ばれる別の技術を利用して検出。既知のCSAMコンテンツのしきい値を超えない限り、コンテンツをAppleが解釈できないようにしている。しきい値を超えた場合にのみ、Appleが安全バウチャーの内容を解釈し、手動で各レポートの一致を確認して、アカウントの凍結、ならびにレポートをNCMECに送信する。
なお、このしきい値は非常に高いレベルの精度になっていると言い、誤ってフラグを立ててしまう可能性が1年に1兆分の1未満であるという。
3つ目はSiriにおける検索のガイダンスの拡大で、CSAMや子供の虐待の報告方法について尋ねたユーザーに対しリソースを表示するとしている。
コメント