広告を閉じる

今年の初めに、Apple が児童ポルノやその他の好ましくないコンテンツの拡散を防ぐために iCloud 上の写真をどのようにチェックしているかについてお知らせしました。フォーブス誌は、この種の写真をチェック、検出、報告するプロセス全体について興味深い洞察をもたらしました。チェックは iCloud 上だけでなく、Apple の電子メール サーバーの環境でも行われます。プロセス全体を通じて、ユーザーのプライバシーが非常に重視されます。

欠陥のある材料を検出する最初の段階は、多くのテクノロジー企業で一般的に使用されているシステムを利用して自動的に実行されます。当局によって以前に検出されたすべての写真には、何らかの形式のデジタル署名が提供されます。 Apple が検出に使用するシステムは、この「タグ」のおかげで、指定された写真を自動的に検索できます。一致するものが見つかると、企業は関連当局に連絡するよう促されます。

しかし、自動検出に加えて、Apple はコンテンツを手動でレビューして、それが本当に不審な内容であることを確認し、関連する Apple ID に関連付けられた名前、住所、電話番号に関する情報を当局に提供することもできます。重要なことは、この方法で取得された素材が受信者に決して届かないということです。これに関連して、Forbes は、12 つのアドレスから XNUMX 通の電子メールが傍受された事件について語る Apple 従業員の一人を引用しています。そのうち XNUMX 枚には XNUMX 枚の写真が含まれていました。前述の従業員の陳述によれば、当該ユーザーは自分自身に不利な写真を繰り返し送信しようとしたという。 Appleによる拘束により、本人の住所に画像が届かなかったため、本人が何度か画像を送った。

そのため、ユーザーはおばあちゃんに見せたいビーチでの子供の写真を Apple が差し控えるのではないかと心配する必要はないようだ。システムは、前述の「デジタル署名」がすでにマークされている画像のみをキャプチャします。したがって、まったく無害な写真が誤って検出されるリスクは非常に低くなります。無害な写真が検出された場合、手動レビュー段階の一部として破棄されます。写真撮影の経緯とその後の調査を記した記事全文をご覧いただけます。 ここ。

icloudドライブカタリナ
.