この事件は、病状を患っている子供の画像をアップロードした父親に関連していました。彼は鼠径部に感染症を患っていたので、医師が病気を診断するのを助けるために、父親は看護師の指示に従ってオンライン相談を受けました。
しかし、Googleが潜在的な児童虐待に基づいて彼のアカウントにフラグを立てようとしたとき、ショックが来ました。シナリオ全体が制御不能になり、事件が上級当局や警察にも報告されるのを見ました。
これは、父親のアカウントが閉鎖されたため、最近報告されたように、調査全体をもたらし、その後、報告書が提出されました。しかし、それは本当に必要だったのでしょうか?まあ、私たちはそれについてはわかりませんが、本当に多くの人々の目を開いたことの1つは、Googleが良いことと悪いことを区別する基準を欠いていることです。
無実の写真に「児童虐待」というタグを付け、それをデジタルライブラリ(個人の携帯電話であれクラウドストレージであれ)に追加すると、人々の心に非常に多くの疑問が残されました。
ちょうど昨年、非公開にすべきことの線引きを曖昧にすることは、実際には有害な結果をもたらす可能性があると発表されたとき、同様の懸念が生じました。この動きは、ハイテク大手のAppleが子供の安全計画を公表したときに起こった。
この動きにより、AppleはiCloudに追加される直前に、Appleデバイス間でローカルに写真をスキャンするのを見ました。その後、画像はデータベース CSAM と照合されました。十分な数のマッチが概説されるたびに、コンテンツは人間のモデレーターの助けを借りてレビューされます。
コンテンツを確認した後、アカウント所有者は、CSAMに属しているという証拠がある場合、停止されます。アカウントが違法であることが証明された場合、アカウントは削除されます。
しかし、ご想像のとおり、この動きには多くの論争がありました。非営利ベースで活動するEFFは、Appleがユーザーの私生活に新しい扉を開く能力を持っていると感じたので、Appleを爆破した。また、iCloud上のすべての画像は、実際に改善として機能するのではなく、保護されにくくなることも意味しました。
したがって、Appleは動きを保留にする以外に選択肢が残っていませんでした、私たちはスキャン部分に関して話しています。しかし、iOS 15.2の発売後、子供のアカウントに関連する別のオプション機能が登場しました。家族共有プランに限定されたオプションもありました。
保護者がお子様のアカウントに同意すると、アプリは画像の添付ファイルを分析し、写真に何らかの形のヌードが含まれているかどうかを確認します。それでも、メッセージはエンドエンド暗号化によって安全です。
物議を醸すような画像はぼやけ、それぞれの警告が表示されます。それに加えて、オンラインの安全性を提供するためにリソースのリストも含まれます。
この問題全体を始めたこの特定の事件は、パンデミック中にマークという名前の父親が病気の息子の感染した鼠径部の画像をクリックしたときに始まりました。彼は援助を必要とし、適切な医師の診察の直前に、看護師からこれらの手順に従うように求められました。結局、医師は症例を診断し、それぞれの抗生物質を提供しました。
しかし、マークが驚いたことに、Googleはわずか2日後に、有害なコンテンツを許可していないため、彼のアカウントがロックされたという警告声明を彼に発行しました。彼らはまた、それはポリシーの重大な違反でもあると述べました。
父親はGoogleの画像、アカウント、電話番号もすべて失ってしまった。
虐待から幼い子供たちを保護することは極めて重要ですが、批評家は現在、不合理な理由でユーザーのすべての画像をスキャンすることが許されないかどうかについて議論しています。