Appleは時折、非常に物議を醸すようなことをやります。いつもそうというわけではなく、たいていはハードウェア関連です。例えば、バタフライキーボードやTouch Bar、Magic Mouse 2の充電方法などです。
でも、たまには会社が思い切って大胆 にやっちゃうこともあるよね?Siriの録音が、本来聞くべきではない人に聞こえていた時のことを忘れちゃいけない。(もちろん、これはAppleだけの問題じゃないけどね。)それから、iPhoneの速度制限問題もあった。もっと前だと、セレブの写真流出事件で大量のプライベート写真が流出した事件もあった。(これはAppleのせいじゃないけど、確かに同じ範疇に入るよね。)
同社は昨日、児童保護の強化と称する機能を発表し、再び取り組みを始めました。これらの新機能は、iOS 15、iPadOS 15、macOS 12 Monterey、watchOS 8に近日中に導入されます。Appleはこれらの機能によって、児童の搾取と虐待の削減に貢献できると期待しています。この取り組みは主に3つの要素から構成されています。iCloudフォトライブラリをスキャンして、児童性的虐待素材(CSAM)を検出すること、検索とSiri内で児童の搾取と虐待に関する詳細情報を提供すること、そしてiMessage使用中に不適切な表現を含む可能性のある写真を送受信した場合に警告を表示することです。
検索やSiri内で共有される知識や情報の質が向上するのは良いニュースです。幼いお子様がiMessageを使用している際に、不適切なコンテンツを受信または送信する可能性があるという警告が表示されるのは良いことです。しかし、Appleでさえもが大企業であり、写真ライブラリを自動的にスキャンすることになるとなると、話はやや複雑になります。
たとえそれが 児童搾取に直接関係する写真内の特定のマーカーを探すだけだったとしても、多くの人にとってそれはやりすぎだ。
しかし、それだけではありません。これは、特にテクノロジー関連でよく耳にする「危険な道」のことです。素晴らしいアイデアが、最終的にはもっと悪いもの、もっと醜いものに変わってしまう可能性があります。実際、Appleのソフトウェア実装は、CSAMに直接結び付けられた特定の画像ハッシュを探しています。多くの人が、これらのハッシュは、ハッシュライブラリの入手先によっては、政治宣伝など、あらゆるものまで拡張される可能性があると指摘しています。
たとえば、権威ある政府は、広く普及している携帯電話にこの機能を組み込むことで、さまざまなものを厳しく取り締まることができるだろう 。
Appleは、現状では誤検知が驚異的な1兆分の1にまで削減されていると発表しています。閾値は明らかにされていませんが、CSAMハッシュを含む写真1枚に対しては措置を講じることはありません。Appleは、将来的にこれらの機能が導入された際に大きな問題が発生するのを防ぐため、必要な対策を講じているようです。これはすべて、子供たちの安全を守るための取り組みです。
これはほとんどの人が同意できると思います。問題は、Appleが実際にどのようにそれを実行しているかです。Appleは 『マイノリティ・リポート』のような未来に向かって突き進んでいると指摘する人もいます。Appleは、いつでも誰かに制裁を下す準備ができている、全知全能の目のような存在です。中には、これらの機能がさらに悪質なものに歪曲され、保護しようとしているユーザー(そして他の人々)に対する悪意ある行動に利用される可能性があると指摘する人もいます。また、Appleは目の前の問題から距離を置くためにできる限りのことをしているだけだと言う人もいます。
後者の点については、次のような状況です。Appleはこれらの機能を導入し、それらは完璧に動作します(そうであることを願います)。しかし、犯人はAppleの監視を回避するにはiCloudフォトをオフにするだけで済むことを知っています。iMessageでの写真共有を停止していることも知っています。そして、もしこれがマクロレベルで起こった場合、Appleとこの種のコンテンツを共有する人々との直接的なつながりが断たれます。彼らはもはやAppleのiCloudやiMessageではなく、おそらくサードパーティのオプションを使用しているでしょう。Appleにはこれについて何もできない、そうですよね?
では、そのコインの裏側はどうでしょう?物事は順調に進み、この機能は事実上忘れ去られます。iOSの歯車の一つに過ぎません。つまり、どこかで誰かが、あるいは複数の人が捕まり、Appleのソフトウェアが正しい判断を下すということです!Appleは「子どものための拡張保護機能は実際に機能している」と言えるので、Appleを称賛すべきです。
Appleを信頼しているとしても(そして私自身もできる限りのことをしている人間だと思っていますが)、あらゆることを考慮すると、 この件については少し悲観的にならざるを得ません。確かに、写真スキャンによって誤検知の可能性が大幅に減少したのは良いことです。しかし、そもそもAppleは私たちの写真ライブラリを自動的にスキャンするべきなのでしょうか?これは、Appleがすべての人が潜在的な犯罪者であると自動的に示唆していることを意味するのでしょうか?この実装は、Apple自身ではなく、サードパーティのセキュリティ/プライバシー保護企業が担当すべきなのでしょうか?
Appleはそもそもこれを実行すべきなのでしょうか?
どう思いますか?