このページの本文へ

前へ 1 2 次へ

独自LLM「Titan」、AIコーディングアシスタント「CodeWhisperer」も

アマゾン、AWS上で生成AIを扱うクラウドサービス「Bedrock」を発表

2023年04月14日 18時00分更新

文● 田口和裕

  • この記事をはてなブックマークに追加
  • 本文印刷

 アマゾン傘下のAWS(Amazon Web Services)は4月13日(現地時間)、生成AIの開発に特化したクラウドサービス「Amazon Bedrock(以下Bedrock)」と大規模言語モデル「Amazon Titan(以下Titan)」を発表。

 同時に、機械学習に特化したアマゾンの独自チップを使用した新たなクラウド基盤「Amazon EC2 Trn1n(以下Trn1n)」「Amazon EC2 Inf2(以下Inf2)」も発表、生成AIを使用したコーディングアシスタント「Amazon CodeWhisperer(以下CodeWhisperer)」の無料公開も明らかにした。

4つの基盤モデルを利用して独自の生成AIアプリを開発

 一般的に生成AIはOpenAIの「GPT-4」やグーグルの「PaLM」といった膨大な量のデータで事前にトレーニングされた基盤モデルと呼ばれる非常に大きなモデルによって動いている。

 ユーザーはあらかじめ基礎的なトレーニングが終わっている基盤モデルにデータを取り込んで微調整(ファインチューニング)することで独自のAIツールを開発することになる。

 だが、基盤モデルによって必要とされる環境や実装方法は様々であり、求められるPCスペックも極端に高いため、潤沢な予算を持つ一部の企業以外はまだまだハードルが高い。さらに、微調整に使用するデータは社内機密であることが多いため、完全に保護される必要がある。

 Bedrockは、AWS上で独自の生成AIアプリケーションを迅速かつ容易に開発できるプラットフォームだ。最大の特徴は、あらかじめ用意されている4つの基盤モデルにAPI経由でアクセスし、自社のデータを使って簡単に微調整が実施できることだ。微調整は少数(20程度で十分だという)のラベル付き学習データをBedrockに提示するだけでよい。

 例えば、過去のキャンペーンで最も効果のあったキャッチフレーズと、それに対応する商品説明文のペアをいくつか提示するだけで、Bedrockは自動的にソーシャルメディア用の記事やコピーなどを生成することができるという。

 その際、すべてのデータは暗号化されており、ユーザーの仮想プライベートクラウド(VPC)から流出することはない。また、微調整後のモデルはAWSに用意されている機械学習プラットフォーム「Amazon SageMaker」の機能を使って簡単にアプリケーションに結合・デプロイできる。

Amazon Titanを含む4つの基盤モデル

 Bedrockに用意されている基盤モデルは現在以下の4つだ。

・Jurassic-2
 AI21 Labsが開発する多言語LLM。自然言語の入力に従い、スペイン語、フランス語、ドイツ語、ポルトガル語、イタリア語、オランダ語のテキストを生成する。

・Claude
 元OpenAIの社員が立ち上げたスタートアップAnthropicが提供するLLM。「正直で無害」なAIを謳っている。

・Stable Diffusion
 Stability AIが提供する、テキストによる指示からリアルで高品質のイラストを生成できる画像生成系AI。

・Amazon Titan
 AWSが新たに発表した大規模なデータセットで事前学習された汎用LLM。
 テキスト生成や要約、分類などが得意な生成型LLM「Titan Text」と、テキストの代わりに埋め込みデータを生成し、主に検索やパーソナライゼーションなどに使われる「Titan Embeddings」の2モデルがラインナップされている。後者はAmazon.comの商品検索機能にも使われている。

機械学習に特化された2つのクラウド基盤

 生成AIの開発には、機械学習のために構築された高機能かつコスト効率の高いインフラが必要となる。Trn1nとTInf2は、生成AIに特化したクラウド基盤となる、費用効果の高いEC2インスタンスだ。

 Trn1nには、AIのトレーニングに特化したアマゾンの独自チップ「AWS Trainium」が搭載されており、他のEC2インスタンスと比較してトレーニングコストを最大50%削減することができるという。TInf2には、AIが行なう推論に特化した「AWS Inferentia2」が搭載されている。Inferentia2は前世代のInferentiaと比較して、最大4倍のスループットと最大10倍のレイテンシーを提供可能であり、他のAmazon EC2インスタンスと比較して、推論のパフォーマンスが最大40%向上するという。

 生成AIアプリケーションの開発中はトレーニングに膨大な時間とコストがかかるが、本番稼働が始まればトレーニングよりも推論の方にコストは集中する。アマゾンが提供するAlexaでは、毎分数百万のリクエストが寄せられ、全コンピュータコストの40%を占めているという。

 BedrockはTrn1nとTInf2の2つのインスタンスを組み合わせて使用することで、学習と推論の両タスクが大幅に最適化されているという。

前へ 1 2 次へ

カテゴリートップへ

ピックアップ