ML Kitの新機能でアプリに簡単に機械学習を導入

Firebase ML Kitの新機能でアプリに簡単に機械学習を実装しよう

2019年5月14日に発表されたFirebaseの新しいML Kitの機能により、開発者の皆さんは簡単にアプリに機械学習を導入できるようになりました。この進化は、誰でも手軽に機械学習を扱えることを目的としており、すでに多数の開発者がこのツールを利用して素晴らしい体験を生み出しています。実際、ML Kitを利用した機能は月ごとに**60%**以上のユーザーエンゲージメントの増加を達成しています。

新機能の紹介

  • オブジェクト検出と追跡API

    このAPIを用いることで、画像内の主要なオブジェクトを特定し、リアルタイムで追跡することが可能です。例えば、AdidasではこのAPIを利用して、アプリ内に視覚的な検索体験を組み込んでいます。このAPIは、画像や動画ストリームを受け取り、主要なオブジェクトの座標とおおよその分類を返します。

  • デバイス上での翻訳API

    Google翻訳を支えるオフラインモデルを活用し、アプリ内で**58**言語のテキストを迅速かつ動的に翻訳することができます。この機能は完全にデバイス上で動作し、翻訳されたテキストのコンテキストはデバイスから外に出ることはありません。ユーザー同士のコミュニケーションをスムーズにしたり、ユーザー生成コンテンツの翻訳に役立てることができます。

  • AutoML Vision Edge

    独自の画像分類モデルを容易に作成できるこの機能は、アプリが特定のニーズに合わせてデザインされています。例えば、特定の食べ物の種類を識別したり、動物の種を区別したりすることが可能です。Firebaseコンソールにトレーニングデータをアップロードするだけで、GoogleのAutoML技術を使用して、ユーザーのデバイス上で実行できるカスタムTensorFlow Liteモデルを構築できます。

  • デザインパターンの提供

    Material Designチームと協力し、機械学習をアプリに組み込むためのデザインパターンのセットを作成しました。これらの実装はオープンソースとして提供され、ML KitやAIの幅広い採用を促進することを目指しています。これらのデザインパターンは、Material.ioサイトで入手できます。

まとめ

この1年の進展を非常に嬉しく思い、皆さんが機械学習の導入に取り組むためのインスピレーションを得ることを期待しています。ML Kitに関する詳細情報は、こちらのサイトをご覧ください。また、Firebaseを訪れてすぐに始めることもできます。