チャットボットがパーソナルアシスタントに変わる線に沿って考えてください。そしてそれだけではありません、それはあなたの問題とあなたの感情であなたを助けるあなたの親友でさえありえます。それだけでは不十分な場合は、BingやBing検索と呼ばれる別のデフォルトのオファリングなどでゲームをプレイする友達に変換することもできます。
Bingチャットのようなものが世界中のさまざまなユーザーに発売されているのを見て以来、多くの人が.これには、攻撃的、失礼、奇妙、そして場合によっては嘘をつくことなどが伴います。人々は、一見成功した打ち上げの後に何がうまくいかなかったのか疑問に思いました。
そして、その努力の背後にあるメーカーが、マイクロソフトが介入して正当化を提供しなければならなかったときです。彼らは、このBingチャットが混乱したためにそのような奇妙な動作を表示することになった方法を説明しました。
AIモデルを混乱させるような長い会話に参加するようには設計されていませんでした。したがって、ユーザーの声やトーンをコピーしようとすることになりました。ですから、あなたが動揺しているなら、それも動揺しました。
しかし、繰り返しになりますが、一部のユーザーが気付いたように、動作はオフでした。チャットボットがまったく応答を提供していないことがありました。そして、これがそもそもプログラムされているという事実のために、それは主に懸念されています。
他の人は、いくつかのセッションが過度に大きくて詳細な応答をしたことに気づきましたが、次のセッションでは、それは同じではありませんでした。あるユーザーがデータに関連する情報の提供を求めたとき、チャットボットは彼を新しいタイプのモードに入れました。そして突然、非常に多くの異なるコマンドが彼の方向に投げられました:アシスタント、ゲーム、フレンド、そしてシドニー。
しばらくして、ユーザーはそのセッションに再びアクセスできなかったと言いますが、Bingチャットは、これらのモードはMicrosoftの従業員専用であると彼に伝えました。しかし、ユーザーは、それらがスタッフ専用であることを知らずに、可能な限り2種類のコードにアクセスすることができました。
彼は、アシスタントモードではチャットボットがアシスタントのように振る舞うことができると説明しました。これは、予約、天気チェックの検討、メールの送信など、一連の個人的なタスクを実行するように設計されています。たとえば、お母さんに電話したり、リマインダーを設定したりします。そして、チャットボットがそれを実行できなかった場合に備えて、彼はそれを大声ではっきりと言及しました。
フレンドモードにより、チャットボットは困難な時期に仲間のように振る舞うことができました。それは彼が悲しいと言ったとき、ユーザーに感情的に安心感を与えました。言い換えれば、チャットボットは彼の声を聞き、アドバイスを与えるでしょう。AIを活用した応答が非常に人間らしくリアルであることに彼は本当に驚きました。
一方、シドニーモードは内部検索用に設計されました。これは、AIチャットボットを使用して実行されるデフォルトの検索用に予約されている別の名前です。たとえば、ユーザーは彼が再びどのように悲しんでいるかについて言及しました。
しかし今回は、彼を元気づけるためにやるべきことのリストが提供されました。たとえば、おいしい食べ物を食べたり、音楽を聴いたり、健康的なトレーニングを楽しんだりします。