これには、物事が簡単に制御不能になる可能性があるため、AIを使用する際の適切な規制の必要性についてピチャイがどれほど強く感じているかについての完全なチャットが含まれていました。
しかし今、別の新しいレポートは、ハイテク巨人のGoogleと、バードチャットボットを含む一連のAI製品のリリースを急いでいる方法に対して、いくつかの強力な主張をしています。報告書はさらに、会社が影響がどれほど損害を与える可能性があるかを知っていたにもかかわらず、倫理的なガードレールが設置されていないことを強調しました。
Googleは、仲間の競合他社であるMicrosoftとOpenAIからの明らかな脅威を感じた後、製品の発売を急いでいるようでした。そして、それが十分に劇的に聞こえない場合、同社はバードの立ち上げで自社のAI倫理チームに注意を払うという選択を意図的に無視しました。
報告書によると、Googleの倫理部門を率いるグループは今や無力であり、出来事に意気消沈していると感じています。これらは、会社を辞めた人々とまだ内部で働いている人々の感情です。
このようなスタッフは、新しいローンチの安全性と倫理的影響を提供する責任がありますが、Googleは彼らに邪魔にならないように移動し、一歩下がるように要求しました。これには、開発中の生成 AI ツールの削除は含まれません。
記事はさらに、バードが打ち上げを一般に公開できなかったときに何が起こったのかについて言及しています。これは、Googleの労働者が製品を試すように要求され、一部の人々がいくつかの重要な返信とフィードバックを生成したときです。
別の労働者は、ある内部議論を通じて公開された最近のスクリーングラブによると、バードが病的な嘘つきに他ならないことに言及しました。その間、別の人はそれをうんざりする価値があると呼びました。同様に、別の人は、バードがチャットボットに飛行機の着陸に関するアドバイスを求めたときに、飛行機墜落事故に関連する誤ったフィードバックをどのように与えたかについて強く感じました。そして、それは別の人が危険であるだけでなく死を引き起こす可能性のあるスキューバダイビングの詳細を提供することについて話したときです。
したがって、技術の巨人がこれを実験全体として開始したと言っても間違いではありません。そして、間違いは避けられないことを事前にユーザーに伝えることは、Googleの側に大きな打撃を与えました。