Appleは本日早朝、子ども向けの保護機能の拡充に関するよくある質問(FAQ)を公開しました。これは、子どもを搾取や虐待から守るための同社の新たな取り組みです。その意図は良いものですが、多くの反響を呼んでいます。特に、新たな保護機能の一つに関してです。
子ども向けの新たな保護機能は、写真のスキャン、検索とSiriの新しいガイダンス、そしてiMessageで送受信される不適切な表現を含む可能性のある写真の検出という3つの要素で構成されています。懸念材料となっているのは、写真がiCloudフォトライブラリにアップロードされている場合にのみ利用可能な写真スキャン機能です。
新機能の発表以来、Appleはこの新たな取り組みへの支持を表明し、それをめぐる騒動の鎮静化に努めてきました。あるソフトウェア担当副社長は、まさにその試みとして社内メモを送付し、プライバシーとユーザーセキュリティへの取り組みを倍増させるとともに、Appleが試みているような方法で子供たちを守ろうとすることは善意に基づくものだと述べました。
しかし、人々を激怒させているのは、Appleによるこれらの機能の実装そのものではありません。少なくともほとんどの人はそうでしょう。問題は、これらの機能の持つ意味合いと、その後に起こりうる「危険な状況」の可能性です。これらのシステムは、個人やグループ、特に何らかの形で国民を取り締まろうとする政府によって悪用される可能性があると考える人は少なくありません。
Appleは、児童性的虐待コンテンツ(CSAM)を検出する写真検出機能が、今年後半にiOS 15でリリースされる時点では米国でのみ利用可能になると発表しました。同社は、この機能を世界規模で展開することは可能だが、より多くの地域に展開する前に、各国で審査を行うとしています。
そして今、AppleはiMessageの通信安全性とiCloudフォトライブラリにおけるCSAM検出に関する専用のFAQを公開し、再び本腰を入れました。Appleはこれらの機能の違いなど、幅広い質問に答えています。CSAM検出について深く掘り下げながらも、すぐに理解できるほどシンプルな構成を維持しています。
たとえば、この写真スキャンが iPhone 上のすべての写真をスキャンするかどうかという質問に対して、Apple は次のように答えています。
いいえ。この機能は設計上、ユーザーがiCloudフォトにアップロードすることを選択した写真にのみ適用されます。その場合でも、Appleは既知のCSAM画像のコレクションを保存しているアカウント、そして既知のCSAMに一致する画像のみを認識します。iCloudフォトを無効にしているユーザーにはこの機能は機能しません。この機能は、デバイス上のプライベートなiPhone写真ライブラリには機能しません。
AppleはFAQの中で、CSAMの実装はCSAM以外のコンテンツを検出しないように設計されているとも述べています。このシステムは、全米行方不明・被搾取児童センター(NCICE)が提供するCSAMハッシュのみに対応しています。つまり、このシステムはCSAM以外のコンテンツを検出するようには設計されていないということです。
政府がAppleに、発見可能なCSAM以外のハッシュを追加するよう強制するのではないか?Appleはそのようなことは起こらないと述べている。
Appleはそのような要求を一切拒否します。AppleのCSAM検出機能は、NCMECやその他の児童安全団体の専門家によって特定された、iCloudフォトに保存されている既知のCSAM画像を検出することのみを目的として構築されています。私たちはこれまで、ユーザーのプライバシーを低下させる政府義務の変更の構築と展開の要求に直面し、断固として拒否してきました。今後も引き続きこれらの要求を拒否します。この技術はiCloudに保存されているCSAMの検出に限定されており、政府による機能拡張の要請には応じません。さらに、AppleはNCMECへの報告前に人間によるレビューを実施しています。システムが既知のCSAM画像と一致しない写真にフラグを付けた場合、アカウントは無効化されず、NCMECへの報告も行われません。
Apple はまた、CSAM 以外のハッシュも検出のためにシステムに「注入」できないようにすべきだとも述べています。
私たちのプロセスは、そのような事態を防ぐように設計されています。照合に使用される画像ハッシュセットは、児童安全機関によって取得および検証された既知の既存のCSAM画像から取得されます。Appleは、既知のCSAM画像ハッシュセットに追加することはありません。同じハッシュセットがすべてのiPhoneおよびiPadユーザーのオペレーティングシステムに保存されるため、特定の個人のみを標的とした攻撃は、私たちの設計では不可能です。最後に、法執行機関への自動報告はなく、AppleはNCMECへの報告前に人間によるレビューを行っています。万が一、システムが既知のCSAM画像と一致しない画像にフラグを付けた場合でも、アカウントは無効化されず、NCMECへの報告も行われません。
これが実際に人々の利便性向上につながるかどうかはまだ分かりませんが、あなたはどう感じていますか?