GemmaとShieldGemma 2:責任あるAIの未来
2025年3月12日、 Googleでは新しいAIモデル「Gemma 3」とその関連技術「ShieldGemma 2」が発表されました。これにより、AIモデルのテキストおよび画像入力・出力における有害コンテンツの検出が一層強化されました。この記事では、Gemmaとその進化版であるShieldGemma 2について詳しく解説します。
Gemma と ShieldGemma の進化
昨年発表されたShieldGemmaは、Gemma 2をベースにしたコンテンツ分類器のスイートであり、AIが生成するテキストの有害コンテンツを特定するために設計されています。そして今回の発表で新たに登場したShieldGemma 2は、**40億(4B)パラメータ**のモデルを基にしており、自然画像と合成画像の安全性を評価する能力が追加されました。
- **性行為を含むコンテンツ**
- **危険なコンテンツ**
- **暴力的なコンテンツ**
これらの基準に対して、ShieldGemma 2は高度な分析を行い、強力なデータセットやモデルを構築する手助けをします。
ShieldGemma 2の特徴
ShieldGemma 2は、従来のテキストに留まらず、マルチモーダルな画像の安全性を理解するための新たな課題に取り組んでいます。このモデルは多様で微妙なスタイルの画像に対しても対応できるように設計されています。
- **フレキシビリティ**:あらゆる合成画像や自然画像をアップロードでき、ニーズに応じてプロンプトのテンプレートを編集できます。Google Colabや自身のGPUでファインチューニングも可能です。
- **汎用性**:Gemma 3をサポートするすべてのツールは、ShieldGemma 2にも対応しています。有名なフレームワーク(Transformers、JAX、Keras、Ollamaなど)と連携が可能です。
- **協働的**:ShieldGemmaはオープンであり、コミュニティの協力者を歓迎し、業界の安全基準を進化させるために共に取り組みます。
AI画像アプリケーションの安全性を高める方法
ShieldGemmaは、AI画像アプリケーションの安全性を高めるためのいくつかの方法を提供しています。
- さまざまなスタイルや内容の画像を扱うことができ、目的に合わせた適切なフィルタリングが可能です。
- 内部評価の結果に基づく最適なF1スコア (%、スコアが高いほど良い) により、他のベンチマークと比較されています。
今後はさらに小型化されたモデルや、より多くの危害分野に対応したバージョンを展開する計画があり、さらにマルチモーダルML Commonsの分類にも適合させる予定です。
Gemmaを使い始める
開発者は、Googleの開発者サイトでShieldGemma 2を探索し、モデルカードの詳細情報を確認することができます。さらに、Google AI Studio、Hugging Face、OllamaなどのプラットフォームでShieldGemma 2を試すことも可能です。AI技術の発展と共に、安全で責任あるマルチモーダルAIを改善するために、次のステップを踏み出しましょう。
まとめ
Gemmaシリーズは、AIの安全性を高めるための重要な役割を果たしています。ShieldGemma 2の登場により、研究者や開発者は、より安全で効果的なAIモデルを構築するための新たなツールを手にしました。今後の展開に期待し、業界全体でAIの安全基準を引き上げていくことが求められています。
チームの努力によって実現したこの新しい技術を活用し、責任あるAIの未来を共に築いていきましょう。