アマゾン、ついにチャットAI参入。マイクロソフトより安い「Amazon Q」(11月29日)
生成AIに傾倒するAWS Amazon Qはビジネスユーザーも視野に(11月30日)
冒頭でも書いたように、筆者は11月末から12月上旬にかけて、AWSの年次イベント「re:invent 2023」取材のために、米ラスベガスを訪れた。AWSは多様なクラウドインフラ向けサービスを提供している関係から、生成、AI以外の発表も多々ある。ただ、今年のトレンドを反映して生成AIがらみの話題が多くなったのは事実である。
AWSと生成AIというと、記事にもあるように、新しく発表されたチャットAIである「Amazon Q」が大きく話題となった。AWSは「Amazon Qはどこにでもある」と表現している。すなわち、チャットボットの開発やドキュメント生成の効率化はもちろん、生成AIとのペアプログラミング、サービスアーキテクチャーに関してのコンサルテーションなど、およそAWSに関わるすべての部分に生成AIを導入することが可能になっている。
これはAWSの上でサービスを作っていく上においては非常に大きな変化だ。マイクロソフトやグーグルも生成AIを使ったプログラミング支援の機能を強く押し出しているが、AWSも同様に生成AIの活用シーンとして「プログラミングの支援」がまず有効であると判断しているのがよくわかる。
同時にAWSは「生成AIのファウンデーションモデルが選べる」こともアピールしている。自社のTitan(これはAmazon Qでも使っている)だけでなく、Llama2やClaude 2.1なども選べる。同社が提供している生成AI開発基盤である「Amazon Bedrock」を使うので当然ではあるのだが、ライバルであるマイクロソフトやグーグルが「自社が強いLLMを抱えている」こととの対比としてアピールされる。基調講演には、Claudeを提供するAnthropicのDario Amodei CEOも登壇した。
最近、一定規模の企業では「LLMの独自学習」をするところも多い。追加学習やRAG(Retrieval-Augmented Generation=検索拡張生成)の利用も増えているが、オープンソースのファウンデーションモデル+自社データで安心して使える環境を用意したいところもある。その場合、クラウドインフラを使って学習をするが、処理は大変で、学習自体が途中で止まることも少なくないという。AWSはその点に配慮し、学習をいくつかの段階に分けながらフェーズに応じて「セーブポイント」のようなものを用意し、仮にトラブルが起きても学習を最初からやり直すことがないように工夫している。
こういったニーズに合わせたシステムの開発はAWSの得意分野であり、生成AIを軸にしたクラウドインフラの活用が明確にサービスの主軸となってきたことを感じさせる。
この連載の記事
-
最終回
AI
“生成AI元年”が終わり、ビジネスへの実装段階になってきた -
第12回
AI
「Sora」は本当に革命か。実は多彩な動きを見せていた2月の生成AI業界 -
第11回
AI
マイクロソフト30年ぶりのキー追加は“生成AI推し”の象徴だ -
第9回
AI
OpenAIはどこへ行くのか|AIニュースまとめ -
第8回
AI
アップル新型「MacBook Pro」生成AIを意識したスペックに|AIニュースまとめて解説 -
第7回
AI
Adobeやグーグル、AIの売り込み進める|AIニュースまとめて解説 -
第6回
AI
「今動かなければ遅れる」生成AI開発を猛烈に進める、アメリカIT大手の危機感|AIニュースまとめて解説 -
第5回
AI
AIの「政治・地政学リスク」が鮮明になってきた|AIニュースまとめて解説 -
第4回
AI
グーグル、生成AI“有料展開”急ぐ 運用コスト重く|AIニュースまとめて解説 -
第3回
AI
楽天、ソフトバンクの“生成AI戦略”に注目【AIニュースまとめて解説】 - この連載の一覧へ