Mac

Appleは、ユーザーの写真ライブラリをスキャンして既知の虐待的コンテンツを探すなど、新しい子供の安全機能を発表した。

Appleは、ユーザーの写真ライブラリをスキャンして既知の虐待的コンテンツを探すなど、新しい子供の安全機能を発表した。

ユーザーのプライバシーとセキュリティはAppleにとって重要な焦点であり、安全性も同様です。例えば、ユーザーがデータを安全に保管できるようにすることは、iOSのセールスポイントの一つです。そのため、Appleがその範囲、特に子供の保護に関してその範囲を広げたいと考えるのは当然のことです。

本日、Appleは、その取り組みにおける最新の取り組みを発表しました。同社は、今年後半に主要OSに導入される新機能のプレビューを発表しました。これらの新機能は、未発表のアップデート後にソフトウェアに組み込まれます。さらに、Appleは、新機能は発売当初は米国のみで利用可能となるものの、将来的には米国外への展開も検討していることを確認しました。

Appleが注力しているのは3つの分野です。CSAMの検出、通信の安全性、そして検索とSiriのガイダンスの拡張です。これらについてはAppleの発表で詳しくご確認いただけます。以下では簡単にご紹介します。

コミュニケーション

まず、子供にとって最も危険な領域の一つ、コミュニケーションについてです。この新たな焦点により、メッセージアプリでは、メッセージアプリ内で露骨な写真を送信する可能性がある場合、子供とその保護者に通知するようになりました。これは、この種の写真を受信する場合も同様です。

本日の発表によると:

このようなコンテンツを受信すると、写真はぼかされ、お子様には警告が表示され、役立つリソースが提示され、写真を見たくない場合は大丈夫だと安心させられます。さらに、お子様の安全を確保するため、万が一写真を見てしまった場合は保護者にメッセージが届くことも伝えることができます。お子様が性的に露骨な写真を送信しようとした場合にも、同様の保護措置が講じられます。写真が送信される前に警告が表示され、お子様が送信を選択した場合は保護者にメッセージが届きます。

この特定の機能は、ファミリーとして設定されたアカウントで利用でき、iOS 15、iPadOS 15、macOS 12 Monterey で利用できます。

Appleは、写真の発見機能はデバイス上の機械学習(ML)によって処理されると述べている。これは本質的に、Apple自身が画像にアクセスできないように設計されている。

CSAM検出

児童性的虐待コンテンツ(CSAM)も、Appleが注力する分野の一つです。このコンテンツには児童の露骨な行為が映っており、Appleはこれを厳しく取り締まる予定です。そのため、AppleはユーザーのiCloudフォトライブラリのコンテンツをスキャンし、CSAMを特定できる技術を導入する予定です。これにより、Appleは発見したCSAMを、包括的な通報センターである全米行方不明・被搾取児童センター(NCMEC)に報告できるようになります。

発表より:

Appleの既知のCSAM検出方法は、ユーザーのプライバシーを考慮して設計されています。クラウドで画像をスキャンする代わりに、システムはNCMECやその他の児童安全機関が提供する既知のCSAM画像ハッシュのデータベースを用いて、デバイス上で照合を行います。Appleはさらに、このデータベースを読み取り不可能なハッシュセットに変換し、ユーザーのデバイスに安全に保存します。

画像がiCloudフォトに保存される前に、デバイス上で既知のCSAMハッシュと照合するマッチング処理が実行されます。このマッチング処理は、秘密集合交差と呼ばれる暗号化技術を利用しており、結果を公開することなく一致の有無を判断します。デバイスは、マッチング結果と画像に関する追加の暗号化データをエンコードした暗号化安全バウチャーを作成します。このバウチャーは、画像と共にiCloudフォトにアップロードされます。

Apple 自身が必要がない限り (基本的にはレポート/検出ツールによって通知されない限り) 写真を解釈できないようにするために、「しきい値秘密共有」と呼ばれるものもあります。

閾値秘密分散法と呼ばれる別の技術を用いることで、iCloudフォトアカウントのCSAMコンテンツが既知の閾値を超えない限り、Appleは安全バウチャーの内容を解読できないようにします。この閾値は極めて高い精度を実現するように設定されており、特定のアカウントが誤ってフラグ付けされる確率は年間1兆分の1未満です。

閾値を超えた場合にのみ、Appleは暗号化技術を用いて、一致するCSAM画像に関連付けられた安全バウチャーの内容を解釈できます。その後、Appleは各レポートを手動で確認し、一致を確認した後、ユーザーのアカウントを無効化し、NCMECにレポートを送信します。ユーザーが自分のアカウントが誤ってフラグ付けされたと思われる場合は、アカウントの回復を求めて異議申し立てを行うことができます。

ユーザーが iCloud フォトをオフにすると、この機能は動作しないことに注意してください。

検索とSiri

3つ目の要素は、Siriと検索に関するガイダンスの拡充です。これは、オンライン時だけでなく「危険な状況」においても、親子の安全確保を支援することを目的としています。この新機能の実装により、ユーザーはSiriにCSAM(児童虐待)や児童搾取を報告できる場所を直接尋ねることができ、必要なリソースへと誘導されます。

Siri、あるいは一般的な検索機能を使って検索しようとすると、ソフトウェア自体が検索をリダイレクトし、「このトピックへの関心は有害で問題があります」とユーザーに通知します。そして、問題の解決に役立つリソースを提案します。

Apple によれば、検索と Siri のこれらのアップデートは、iOS 15、iPadOS 15、macOS 12 Monterey、watchOS 8 で提供される予定だという。

詳細については、Apple の完全な発表をご覧ください。

Milawo
Milawo is a contributing author, focusing on sharing the latest news and deep content.