Googleによる今日のSearch Onイベントでは、同社がについて話しているのを見ました。同社はさまざまな機能を展示し、翻訳全体をよりスムーズに体験するように設計されたGoogle Lensの新しいリリースをリリースしました。
Google Lens は、これまでずっと前から、あらゆる形式の移行をリアルタイムでサポートしてきました。現時点では、翻訳されたテキストの前に配置するために実際の画像をカバーする製品があります。そして、それはちょうど非常にあまり良くない経験を追加します。
この更新されたAR翻訳機能を使用して、検索エンジンの巨人は、翻訳をより自然で穏やかな努力に変えるために懸命に努力していると言います。
添付の画像に見られるように、この新しいARエクスペリエンスは、実際の画像に見苦しい表示を表示していません。これは、同社が機械学習を使用して実際のテキストを削除し、その下に表示されるピクセルをバックグラウンドでやり直すためです。テキストが一番上に重ねられ、最終製品はよりシームレスな結果になります。
全体として、リアルタイム翻訳が行われる速度を低下させるという印象を多くの人々に与えるかもしれません。しかし、検索エンジンの巨人は、そうではないと多くの人々を安心させました。同社は、元のテキストを削除し、背景を作り直し、テキストを数分の一秒でオーバーレイするために、より最適化された技術を使用することは、製品がどれほど優れているかを示していると感じています。
このために、彼らはPixelデバイス間で即座に結果を生成するGANモデルを使用する予定です。
しかし、それはいつでもすぐにではないので、あなたは打ち上げのためにしばらく待つ必要があるでしょう。年末までにローンチを予定しているが、決定的なタイムラインは提供されていない。この体験がすべてのアプリでGoogle Lensで見られるのか、それとも一部のアプリだけに見られるのかはまだ不明です。