このページの本文へ

グーグル、Geminiベースのオープンな軽量LLM「Gemma」を無料公開 商用利用OK

2024年02月22日 11時55分更新

文● 田口和裕

  • この記事をはてなブックマークに追加
  • 本文印刷

 グーグルは2月21日(現地時間)、「Gemini」をベースにした、軽量で最先端のLLM(大規模言語モデル)「Gemma」を発表。規模に関係なくすべての組織に対し、配布と商業利用が許可されたオープンモデルとなる。

主要なベンチマークで他の大型モデルを凌駕

 ラテン語で「宝石」を意味するGemmaは、事前学習および指示チューニングされた「Gemma 2B」「Gemma 7B」の2つのサイズのモデルウェイトをリリースする。

 グーグルの最先端LLM「Gemini」と技術およびインフラコンポーネントを共有しているため、主要なベンチマークでメタの「Llama 2」など他の大型モデルを上回っている。

 グーグルが開発する「Google Cloud TPU」はもちろん、NVIDIAと提携して「NVIDIA GPU」のようなAIハードウェアプラットフォームに最適化されており、業界をリードするパフォーマンスが保証されるという。

グーグルの「AI基本理念」に準拠

 「Gemma」は、グーグルの「AI基本理念」に準拠して設計されている。

 自動化技術を使用し、学習の際のデータセットから特定の個人情報やその他の機密データを除外し、RLHFによる広範なファインチューニングと強化学習によって、指示チューニングされたモデルに責任ある行動をとらせるようにしているほか、リスク軽減のために、手動のレッドチーム、自動化された敵対的テスト、危険なアクティビティに対するモデルの評価など堅牢な評価を実施したという。

 さらに、安全なAIアプリケーションを作成するためのガイダンスと必須ツールが含まれた新しい「Responsible Generative AI Toolkit」や、マルチフレームワーク「Keras 3.0」を介して、JAX、PyTorch、TensorFlowなど、すべての主要なフレームワークにわたって推論と教師ありファインチューニング(SFT)を実施するためのツールチェーンも提供される。

 事前学習、指示チューニングされた「Gemma」は、ノートパソコン、ワークステーション、Google Cloud上で実行でき、Vertex AIおよびGoogle Kubernetes Engine(GKE)に簡単にデプロイできる。

 ブラウザーからすぐに使えるColabおよび Kaggleノートブックに加え、Hugging Face、MaxText、NVIDIA NeMo、TensorRT-LLMなど多くの人気ツールとの統合により手軽にスタートできる。

研究者に向け無料クレジットも配布

 「Gemma」は、AIイノベーションを推進する開発者と研究者のオープンコミュニティ向けに構築されている。

 グーグルはKaggleの無料アクセス、Colabノートブックの無料枠、新規Google Cloudユーザー向けた300ドルのクレジット配布など様々な補助を通じてGemmaの使用を推進している。

 さらに、研究者は最大50万ドルのGoogle Cloud creditsを申請することもできるという。

 メタに続き自由に触れられるオープンなLLMの登場により、AI技術の民主化が一層進むことが期待される。

カテゴリートップへ

ピックアップ