Airpods

アップルはCSAM検出システムを含む子供の安全機能の展開を延期

アップルはCSAM検出システムを含む子供の安全機能の展開を延期

8月にAppleは、iOS 15、iPadOS 15、macOS 12 Monterey、watchOS 8に搭載される3つの新機能を、極力控えめに発表しました。合計3つの新機能は、児童虐待と性的搾取の防止に向けたAppleの新たな取り組みの一環です。これらの機能は概ね好意的な動きと見られていましたが、新機能の具体的な内容については、多くの反発がありました。そして、どうやらその効果はあったようです。

本日、Appleはチャイルドセーフティ機能の展開を延期すると発表しました。これには、児童性的搾取に関する詳細情報、未成年者が露骨な表現を含む可能性のある写真を送受信した際に監視する機能、そして児童性的虐待素材(CSAM)検出ツール(ユーザーのiCloudフォトライブラリをスキャンし、CSAMに直接関連付けられた既知のハッシュを検索する)が含まれます。外部機関や関係機関から最も激しい非難を浴びているのは、このCSAM検出ツールです。Appleは新機能を称賛し、Apple自身も他社も悪用できないことを示そうと、そしてこれらの新機能が全体として良いものであると売り込もうと懸命に努力しているにもかかわらず、一部の人々は、この機能が危険な道筋にあると考えています。

しかし、新機能に不満を抱いている人々をなだめるため、Appleは「改善のための時間をさらに確保するため」、リリースを延期することを認めました。Appleの遅延に関する声明全文は以下をご覧ください。

Appleの声明:

先月、コミュニケーションツールを利用して子どもたちを勧誘・搾取する犯罪者から子どもたちを守り、児童性的虐待コンテンツの拡散を抑制するための機能計画を発表しました。お客様、支援団体、研究者などからのフィードバックに基づき、これらの極めて重要な子どもの安全に関する機能をリリースする前に、今後数か月かけて意見収集と改善に時間をかけることを決定しました。

声明にも記載されているように、これらの機能を検討し、必要に応じて調整する計画にはある程度の時間がかかり、Appleは少なくとも数ヶ月かけて状況を調整する予定です。もちろん、新たなリリーススケジュールは発表されておらず、Appleは今後これらの機能についてさらに透明性を高めていくと考えられます。しかし、この点については時が経てば分かるでしょう。

念のためおさらいすると、AppleはCSAM検出ツールを設計したと述べています。このツールは、iCloudフォトライブラリをスキャンして既知のハッシュ値を検出するもので、エンドユーザーのプライバシーを念頭に置いて設計されています。Appleは、新しいチャイルドセーフティ機能のこの要素について、当初以下のように説明しました。

Appleの既知のCSAM検出方法は、ユーザーのプライバシーを考慮して設計されています。クラウドで画像をスキャンする代わりに、システムはNCMECやその他の児童安全機関が提供する既知のCSAM画像ハッシュのデータベースを用いて、デバイス上で照合を行います。Appleはさらに、このデータベースを読み取り不可能なハッシュセットに変換し、ユーザーのデバイスに安全に保存します。

画像がiCloudフォトに保存される前に、デバイス上で既知のCSAMハッシュと照合するマッチング処理が実行されます。このマッチング処理は、秘密集合交差と呼ばれる暗号化技術を利用しており、結果を公開することなく一致の有無を判断します。デバイスは、マッチング結果と画像に関する追加の暗号化データをエンコードした暗号化安全バウチャーを作成します。このバウチャーは、画像と共にiCloudフォトにアップロードされます。

では、Appleの決断についてどう思いますか?正しい決断だと思いますか?

Milawo
Milawo is a contributing author, focusing on sharing the latest news and deep content.