You are currently viewing 最近のケースは、Googleがアニメーション児童虐待コンテンツのユーザーアカウントをスキャンを明らかにする / Google

最近のケースは、Googleがアニメーション児童虐待コンテンツのユーザーアカウントをスキャンを明らかにする / Google

インターネットは世界をかなり変えましたが、そうでなければ多くの人が良い方向に向かいました。そのすべてが言われ、今では邪魔になっているので、特定の人々が残念ながら児童の虐待などの画像をオンラインで広めることも残念ながら容易になったことに注意することが重要であり、それは多くの企業が対処する方法を見つけるのに苦労しているものです。

アップルは最近、子供をフィーチャーした画像を検索してiCloudデータベースをスキャンすることを約束しましたが、これは人々のプライバシーを損なう可能性がある一種であるという事実のために批判につながります。結局のところ、ほとんどの人はこのようなことに参加しておらず、少なくとも短期的には、この点ではよりターゲットを絞ったアプローチが必要になった可能性が最も高いことを犯したことでプライバシーを侵害される可能性があります。

しかし、Appleはこの提案から後退し、ユーザーの欲求に従ったが、Googleは少なくともアニメーション児童児童グラフィーに関する限り、より深刻なアプローチを取っているようだ。中西部の芸術家がセックスをしている2人の未成年の少年を描いたイメージを持つことが判明した最近のケースは、裁判で使用されましたが、過度にわいせつではなく、芸術的または科学的な性質を持っている場合、そのような画像が許可される可能性があるため、男性は有罪判決を受けていないようです。

Googleは、それがこれらの画像に出くわした方法を明らかにしていませんが、考慮され、考慮されたすべてのもので、人々のGoogleドライブとGmailアカウントをスキャンする可能性が高いです。これらのプラットフォームはエンドツーエンドで暗号化されていないため、Googleがこれを行うのは比較的簡単ですが、前述のプライバシー侵害は、Googleのさまざまな製品やサービスを自分のニーズに合わせて使用している間に対処する必要があるもう一つの問題です。

これらの出来事は興味深い議論をもたらしました。一方で、人々は自分のGoogleドライブに電子メールを送信し、アイテムを保存しながら、プライベートを感じたいと思っています。一方、CSAM、または児童性的暴行材料を描いた漫画は、特に一部の悪意のあるアクターがCSAMの描写を検出するように設計されたアルゴリズムを覆すためにそれらを使用している可能性があるため、取り締まる必要があります。法執行機関は、この能力でGoogleと協力し続け、遅かれ早かれ何らかの解決策を得ることができます。