Googleは、Google AIがデータベースに存在する写真やロゴの人物を男性または女性として認識しないと発表しました。代わりに、ツールは、任意の人間がいる場合は、写真のタグとして「人」を使用します。
によると、Google APIはこの新しい開発についてすべての顧客に電子メールを送信しました。電子メールでは、AIが外見や人々が身に着けているものを通じて性別を判断できないため、すべての性別をPEOPLEとして認識すると述べ、第二に、ジェンダーバイアスを作成することはAIのコードに反すると述べた。その規則はメールで言及された。
開発を確認し、男性と女性のタグが不足していることがわかりました(参照用の下の画像を参照)。
同社は開発者にコメントを求めた。彼らの大半はそれを「肯定的な発展」と認めたが、ある人は、私が人の99%が男性か女性かを認識できない理由について不平を言った。
現在、議論の主なトピックは、AIによって作成されたバイアスです。開発者は、AIが自分の色に応じて人々を誤って識別すると不平を言います。また、GoogleビジョンAPIがトランスの人や人のセクシュアリティを誤って識別しているという苦情がありました。さらに、一部の写真は男性よりも女性のタグが多く、その逆も議論されました。しかし、アルゴリズムが人が女性であっても、多数の写真で男性であると予測するいくつかのツールでは、調理の偏ったデータセットがあることがわかりました。
したがって、開発はMozillaの仲間の技術政策によって高く評価されました, フレデリック・カルテウナー, 他の人は、それが他の人のための模範的なステップを見つけた間、それを肯定的と呼びました.