Appleは様々な発表で大きな話題を呼ぶことがあります。例えば、最近発表された「子どものための拡張保護」が挙げられます。これは、子どもを虐待や搾取から守ることを目的とした、合計3つの機能スイートです。また、リスクにさらされている可能性のある人々に、より多くの情報とリソースを提供することも目的としています。
それ以来、Appleはこれらの機能に関する懸念や疑念を払拭しようと努めてきました。特に、新機能の一つであるiCloudフォトライブラリのスキャン機能では、既知の児童性的虐待コンテンツ(CSAM)が検索されます。この新機能は、一部の団体や政府による、利他的とは言えない活動につながる可能性があると多くの人が指摘しています。
しかし、Appleはこのアイデアやその実装を諦めたわけではないようだ。疑問を解消しようと専用のFAQを公開している。さらに、最近、これらの新機能について記者とのQ&Aセッションを開催したようだ(MacRumors経由)。
このセッションで、同社はこれらのチャイルドプロテクション機能へのサードパーティ製アプリのサポート追加が目標であることを明らかにしました。しかし、将来的にどのようなものになるのか、具体的な例や、サードパーティ製アプリのサポートがいつ実現するのかといった具体的なスケジュールは明らかにしませんでした。
しかし、一つの選択肢として「コミュニケーションセーフティ」機能があります。この機能がリリースされると、iOS/iPadOS/macOSユーザーがメッセージアプリ経由で性的に露骨な画像を送受信した際に、iMessageがそれを検出できるようになります。AppleはInstagramなどのサードパーティ製アプリやその他のメッセージアプリにも対応させる可能性があります。
クラウドに依存する写真保存アプリも、CSAM 検出ツールを活用できます。
元のレポートによると、Apple は、サードパーティ製アプリへの拡張によって、ファーストパーティ製アプリ/サービスのこれらの機能に固有の全体的なセキュリティ保護やユーザーのプライバシーが損なわれることはないと述べています。
アップルは、子どもの安全機能をいつサードパーティに拡張できるかについては時期を明らかにしなかったが、機能のテストと展開をまだ完了していないと指摘し、また、潜在的な拡張によってプライバシー特性や機能の有効性が損なわれないことを保証する必要があるとも述べた。
Appleはここで多くの問題を鎮火させている。それも当然だ。同社は児童搾取や性的虐待に直接対処し、根絶しようとしているだけでなく、その監視体制は多くの人がビッグブラザー風だと考えるようなやり方で行われている。
Apple はこれらの機能が永続的に利用され続けるようにしようとしているようですが、それが今後も続くかどうかは時が経てばわかることでしょう。