広告を閉じる

先週末、私たちは、児童虐待を描いた画像を検出するための新しいシステムという、かなり興味深い新製品についてお知らせしました。具体的には、Apple は iCloud に保存されているすべての写真をスキャンし、検出された場合は関係当局に報告します。このシステムはデバイス内で「安全に」動作しているが、この巨人は依然としてプライバシーを侵害しているとして批判されており、このことは人気内部告発者のエドワード・スノーデン氏も公表した。

問題は、Apple がこれまでユーザーのプライバシーに依存しており、いかなる状況下でもそれを保護したいと考えていることです。しかし、このニュースは彼らの当初の態度を直接混乱させます。リンゴ生産者は文字通り既成事実に直面し、2つの選択肢のどちらかを選択しなければなりません。特別なシステムで iCloud に保存されているすべての写真をスキャンするか、iCloud 写真の使用を中止するかのどちらかです。そうすれば、全体が非常に簡単に機能します。 iPhone はハッシュのデータベースをダウンロードし、写真と比較します。同時に、ニュースにも介入し、子供たちを保護し、危険な行動について親にタイムリーに知らせることになっている。その場合、誰かがデータベース自体を悪用する可能性があるという事実から懸念が生じます。さらに悪いことに、システムが写真だけでなく、メッセージやすべてのアクティビティもスキャンする可能性があるということです。

アップルCSAM
すべての仕組み

もちろん、Apple は批判に対してできるだけ早く対応する必要がありました。このため、たとえば同社は FAQ 文書を公開し、システムは写真のみをスキャンし、ビデオはスキャンしないことを確認しました。彼らはまた、他のテクノロジー大手が使用しているものよりもプライバシーに優しいバージョンであると説明しています。同時に、アップル社は、全体が実際にどのように機能するかをさらに正確に説明しました。データベースと iCloud 上の画像を比較したときに一致する場合、その事実に対して暗号で保護されたバウチャーが作成されます。

すでに上で述べたように、このシステムは比較的簡単にバイパスできることも Apple によって直接確認されています。その場合は、iCloud 上の写真を無効にするだけで、検証プロセスを簡単に回避できます。しかし、疑問が生じます。その価値はありますか?いずれにせよ、少なくとも現時点では、このシステムがアメリカ合衆国でのみ導入されているという明るいニュースが残っている。この制度をどう見ていますか?欧州連合加盟国での導入に賛成ですか、それともプライバシーへの侵害が多すぎますか?

.