広告を閉じる

今日中に、早ければ明日にも世界に発表される可能性のある非常に興味深いリンゴのノベルティに関する情報がインターネット上に現れ始めています。これらの報道によると、Apple はデバイス上の写真をスキャンする新しいシステムを導入する予定で、ハッシュ アルゴリズムを使用して、保存されている児童虐待画像を示す一致を探します。例えば、児童ポルノの可能性もあります。

iPhone 13 Pro (レンダリング):

セキュリティの名の下に、システムはいわゆるクライアント側である必要があります。実際には、これは、iPhone が個々の比較に必要な指紋データベースをダウンロードするときに、すべての計算と比較がデバイス上で直接行われることを意味します。肯定的な結果が得られた場合、このケースは審査のために通常の従業員に引き渡される可能性があります。いずれにせよ、現時点では、このシステムが決勝でどのように機能するか、その条件と可能性がどのようなものになるかを推測することしかできません。したがって、現在は正式なプレゼンテーションを待つ必要があります。たとえば、携帯電話が機械学習を通じてさまざまな写真を認識して分類できる場合、同様のことがすでに iOS で機能しています。

それにも関わらず、セキュリティと暗号化の専門家マシュー・グリーン氏は、この新しいシステムに注目を集め、同氏によれば、これは非常に複雑な分野であるという。なぜなら、ハッシュアルゴリズムは非常に簡単に誤ってしまう可能性があるからです。 Appleが、児童虐待の画像を比較し、場合によっては特定するために使用される、いわゆる指紋のデータベースそのものへのアクセスを政府や政府機関に許可した場合、そのシステムが他の目的にも使用される危険性がある。 。これは、これらの被験者が意図的に他の指紋を探す可能性があり、極端な場合には政治活動の抑圧などにつながる可能性があるためです。

iphoneアプリ

しかし、少なくとも現時点ではパニックになる必要はありません。たとえば、バックアップを通じて iCloud に保存されたすべての写真でさえ、最終的には暗号化されませんが、暗号化された形式で Apple のサーバーに保存され、キー自体は再びクパチーノの巨人によって保管されます。したがって、正当な緊急事態が発生した場合、政府は特定の資料の提供を要求することがあります。前述したように、最終的なシステムがどのようなものになるかは現時点では不明です。児童虐待は大きな問題であり、それを検出するための適切なツールを手元に用意しておいても損はありません。しかし同時に、そのような権力を乱用してはなりません。

.