このページの本文へ

RAG技術を組み込んだAIエージェントもベータ提供開始

オラクル、Llama 2/Cohere LLMのマネージドサービス「OCI Generative AI」をGA

2024年01月29日 07時00分更新

文● 大塚昭彦/TECH.ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

 日本オラクルは2024年1月24日、「Oracle Cloud Infrastructure(OCI)」においてエンタープライズ向け生成AIサービス「OCI Generative AIサービス」の一般提供開始(GA)を発表した。CohereおよびMetaのLLM(大規模言語モデル)を提供し、さまざまな企業向けユースケースにおいてLLMによるテキスト生成を可能にするフルマネージドサービス。

 また、RAG(検索拡張生成)技術を用いてLLMが外部ナレッジベースに基づき回答するAIエージェント「OCI Generative AI Agentsサービス」と、LLMのデプロイやファインチューニングをノーコードで実行する「AI Quick Actions for OCI Data Science」機能の提供開始(いずれもベータ版)も同時に発表している。

「OCI Generative AIサービス」(一般提供開始)の概要

「OCI Generative AI Agents(for RAG)」と「AI Quick Actions for OCI Data Science」(いずれもベータ版)の概要

 同日の記者説明会では、米オラクル Generative AIサービス担当VPのヴィノード・マムタニ氏が、今回発表した3つの新サービスの詳細、さらにオラクルによるOracle Cloudへの生成AI組み込み戦略と強みについて説明した。

(左)米オラクル AIプラットフォームおよびGenerative AI Service担当VPのヴィノード・マムタニ(Vinod Mamtani)氏 (右)Oracle CloudのAIテクノロジースタック全体像

OCI Generative AI:Meta Llama 2、CohereのLLMをマネージドサービスで提供

 OCI Generative AIサービスは、幅広いユースケースに対応する事前トレーニング済みLLMをOCI上で提供するフルマネージドサービス。LLMをそのまま利用するだけでなく、ファインチューニングによるカスタマイズも可能だ。

(上)事前トレーニング済みモデルの使用方法、(下)モデルのファインチューニングとエンドポイントの作成方法(画像は公式ドキュメントより)

 提供開始時点で利用できるLLMは、Metaが開発するオープンソースのテキスト生成LLM「Llama 2(70B)」と、Cohereが開発するテキスト生成LLM「Command(6B/52B)」、要約LLM「Summarize」、テキストのベクトル変換モデル「Embed」の4つ。

 同サービスは昨年9月の「Oracle CloudWorld」でベータ版が発表されたが、今回の正式リリースでは対応LLMにLlama 2を追加。そのほかにも、Cohere Commandのファインチューニング機能追加、LLMをホストするクラスタのUX向上といった機能向上を図っている。

 なお提供するLLMについては、今後も顧客の要望を聞きながら追加を検討していく方針と述べ、Llama 2については半年後をめどに小型の7Bモデルも提供予定だと紹介した。

OCI Generative AIサービスが提供するLLMと、最新の追加機能

OCI Generative AI Agents(RAG):社内ナレッジベースを参照して回答

 OCI Generative AI Agentsサービスは、LLMを使い自然言語による質問回答を行うAIエージェントサービス。今回提供を開始したRAGエージェントは、LLMがユーザー企業のナレッジベースを参照し、ソースとなるドキュメントへのリンク付きで回答を行う。これによりハルシネーションの発生を抑制した、より正確な回答を実現する。

 なお、デフォルトでは上述のOCI Generative AIが提供するLLM(Meta Llama 2、Cohere)を利用するかたちとなっており、ユーザー企業が独自にLLMをトレーニングする必要はない。

OCI Generative AI Agents(RAG Agents)の動作の概要(画像は公式サイトより)

 ベータ版の提供開始時点では、OCIのナレッジベースサービス「OCI OpenSearch」に蓄積されたテキストやドキュメントといったナレッジがRAGの対象となる。今年(2024年)上半期中をめどに、RAGの対象は「Oracle Database 23c」や「MySQL HeatWave」のベクトルデータベースにも拡大される予定。

 また、今回提供開始したRAGエージェントに加えて、「Actionエージェント」も今後提供予定としている。こちらはユーザーが入力したプロンプトに応じてLLMがAPIを呼び出すことで、「さまざまなタスクを自動化できる可能性がある」と説明した。

OCI Generative AI Agentsの今後の拡張予定

AI Quick Actions for OCI Data Science:LLMのデプロイ/ファインチューニング操作を簡素化

 データサイエンティスト向けの機械学習プラットフォームサービス「OCI Data Science」では、新たにAI Quick Actions(ベータ版)を提供開始した。Data Scienceのノートブックから、ノーコード/ワンクリックで、LLMのデプロイやファインチューニングといった操作が実行できる。

 ブログでの発表によると、提供開始時点では「Llama 2基盤モデルのファインチューニング」「Mistral 7B基盤モデルのデプロイ」「Llama 2 13B基盤モデルのデプロイ」といった操作が可能であり、今後も順次拡張していく予定だとしている。

現時点で実行可能なAI Quick Actions(デプロイ、ファインチューニング)

企業向けに特化した生成AIを、すべてのレイヤーに組み込み、安全に提供

 マムタニ氏は、生成AIに対するOracle Cloudの取り組みの特徴を、「エンタープライズのユースケース向けに設計された高性能な生成AIを」「テクノロジースタックのすべてのレイヤーに組み込むかたちで」「データ管理/セキュリティ/ガバナンスを重視しながら」提供している、という3点にまとめた。

 テクノロジースタックのうち、インフラレイヤーでは最大4096インスタンス/3万2768 GPUまで拡張できる「OCI Supercluster」のパワーと経済性を、またデータレイヤーでは「Oracle Database/Autonomous Database」「MySQL HeatWave」からデータを動かすことなく活用できる効率性や管理性を強調している。

AI/生成AIに対するOracle Cloudの取り組みの特徴

インフラレイヤー(OCI Supercluster)やデータレイヤーの特徴

カテゴリートップへ

  • 角川アスキー総合研究所
  • アスキーカード