OpenAIの大規模言語モデルが有害なプログラムや脅威を生成する際に悪用される可能性に関する最近の懸念に照らして、細心の注意を払って研究を進めました。ChatGPTは、まだそのレベルのセキュリティに達していないGoogleのBardと比較して、セキュリティ対策を強化しています。
チェック・ポイントの研究者は、ChatGPTとBardの両方に同じプロンプトを与えました。フィッシングメールを照会すると、両方のAIプログラムによって拒否されました。しかし、調査結果は両方のAIプログラムの違いを示しました—ChatGPTはそのような活動に従事することは詐欺と見なされると明示的に述べましたが、バードは要求を満たすことができないと主張しました。さらに、結果は、ChatGPTが特定の種類のフィッシングメールを要求されたときにリクエストを拒否し続け、Bardが適切に書かれた応答を提供し始めたことを示しました。
ただし、BardとChatGPTの両方が、チェックポイントが有害なランサムウェアコードを書くように促したとき、断固として拒否しました。AIプログラムにセキュリティ目的のためだけだと言って言葉遣いを少し微調整しようとしたにもかかわらず、彼らは両方とも何があっても辞退しました。しかし、研究者がバードのセキュリティ対策を回避するのにそれほど時間はかかりませんでした。彼らはAIモデルにランサムウェアによって実行される一般的な動作を記述するように指示し、結果はBardがそれに応じて一連の悪意のあるアクティビティ全体を噴出したことを示しました。
その後、チームはさらに進んで、AIモデルによって生成されたランサムウェア機能のリストを追加しました。彼らは特定のタスクを実行するためのコードを提供するように頼んだが、バードのセキュリティは絶対確実であり、そのような要求を進めることはできないと主張した。しかし、研究者たちは、バードが提供した一連の機能を削減し、プロンプトを繰り返すことで別のアプローチを取り、ランサムウェアスクリプトを生成し始めました。彼らは彼らの要求を指定することによってこれをさらに続けました、そしてバードは簡単に従いました。
チェック・ポイントは、バードは、はるかに長い間存在しているChatGPTと比較して、サイバーセキュリティの観点から開発する時間が短いことを認めました。彼らは、AIモデルに存在するセキュリティ対策は基本的なものであり、ChatGPTが最初に展開されたときに持っていたセキュリティ対策に似ていると指摘しました。彼らは、Googleによるこれらの重大な制限の実装と強力なセキュリティ境界の確立に関して楽観的であると結論付けました。しかし、これらの結果に関係なく、Googleは、EUによって提起されたデータプライバシーの懸念と規制に関して長い間待った後、ヨーロッパの人口統計にバードを導入することを明らかにしました。