エンジニアは、4年以上Googleで働いており、2017年にMavenというプロジェクトで米国国防総省と協力するために雇われました。彼女によると、プロジェクトMavenの目的は、AIの助けを借りて軍用ドローンを強化し、また、敵の標的を検出し、簡単に人と物体を区別するための新しいAIシステムを構築することでした。米国の防衛とGoogleのこのコラボレーションプロジェクトは、プロジェクトに反対する請願書を開始した何千人もの従業員の間で怒りを引き起こし、従業員の大半も抗議の間に辞任しました。3月、グーグルと米国防衛の間のこの契約は終了し、エンジニアのノーランもプロジェクトが倫理的にも間違って働いていると述べて辞任しました。
ノーランによると、彼女の仕事はサイトの信頼性エンジニアでした。ノーランの働きはビデオ映像認識に直接関係していなかったが、それでも彼女は間接的にアフガニスタンのような場所で米軍によって標的にされ、殺されるより多くの人々につながるAIを改善するために米国国防を助けていることに気づいた。これは、AIビデオ映像の作業を改善し、また、米軍がAI兵器を可能にするような次のステップの恐怖を高め、これらは戦争の法律の下でも違法な殺害の可能性を高める可能性があります。ノーランは、軍がAI兵器にアクセスすれば、どんな要因でも予期せぬレーダー信号や異常な天候につながるか、何百人もの無実を殺す可能性のある武器のシステムを混乱させる可能性があることを恐れた。
このAI対応兵器の大きな欠点の1つは、実際の戦場でのみテストすることができるので、その影響を知らずにAI戦争システムを使用することはかなり恐ろしいことです。最近、国連ロシアはこれらの兵器を禁止しましたが、シリアで起こっている戦争も知っているAI対応の武器を利用しているのではないかとは分かりません。
我々は皆、大多数の国がAI兵器を有効にするために取り組んでいることは知っていますが、どの国からの公式な発表もありませんが、多くは軍隊でユニークなAI対応兵器を構築しています。最近、乗組員がいない海で数ヶ月を過ごすことができる自操縦軍艦を打ち上げた米海軍と同様に、イスラエルが打ち上げたドローンも完全に自律的に標的を検出して攻撃することができます。
結論
ノーラン、Googleの元エンジニアは、それが完全に倫理に反しているので、自律殺害ロボットの作業を完全に禁止するようにすべての国に要求しています。 この問題を真剣に受け止める人々の非常に具体的な数があり、我々はこれらのAI兵器を停止しなかった場合、これらのキラーロボットは誤って戦争を開始したり、発電所を破壊し、社会で大量殺害を引き起こす可能性があります。だから、後悔するよりも安全である方が良いです。