このページの本文へ

昨年の提携発表をより具体化/拡張し、お互いの最新技術に自社製品を対応させる

SnowflakeとNVIDIAが提携を拡大、データの近くで高度なコンピューティングを実現

2024年06月05日 16時30分更新

文● 末岡洋子 編集● 大塚/TECH.ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

 Snowflakeの年次イベント「Snowflake Summit 2024」が2024年6月4日、米サンフランシスコで開幕した。同社はこの日、メインの基調講演に先駆けてNVIDIAとの提携拡大を発表。夕方のオープニングステージに立ったSnowflake CEOのシュリダ・ラマワスミ氏が、台湾にいるNVIDIAの創業者兼CEO、ジェンスン・フアン氏とライブで対談した。

Snowflake CEOのシュリダ・ラマワスミ(Sridhar Ramaswamy)氏

提携を通じてお互いの最新技術に自社製品を対応させる発表

 SnowflakeとNVIDIAは、昨年開催のSnowflake Summitにおいて、NVIDIAのGPUと「NVIDIA NeMo」、Snowflakeのデータクラウドを組み合わせて、生成AIアプリケーションを容易に開発できるようにするための提携を発表していた。

 今回はその提携を拡大し、それぞれの最新技術に対応していく発表を行っている。

 Snowflakeは「NVIDIA AI Enterprise」ソフトウェアを採用し、「NeMo Retriever」「Triton Inference Server」をSnowflakeの「Snowflake Cortex AI」に統合する。Snowflake Cortex AIは、同社が2023年11月に発表したマネージドLLMおよびベクターエンジン。

 これにより、企業はカスタムモデルとビジネスデータをシームレスに結びつけ、精度の高い回答を返す生成AIシステムを構築できるようになる。

 一方でNVIDIAは、LLMを定義するPython APIである「TensorRT-LLM」ソフトウェア、NVIDIAの推論マイクロサービスである「NIM」で、SnowflakeのLLMである「Snowflake Arctic」をサポートする。Snowflake Arcticは、Snowflakeが4月に発表したばかりのLLMだ。

 ラマワスミ氏は、SnowflakeとNVIDIAが提携する意義について「NVIDIAのアクセラレーテッドコンピューティングにより、データ処理が安価に、高速になる。2社が組むことで、企業が生成AIを現実のものにすることを支援する」と述べる。

AI活用製品/サービスの「市場投入までの時間」を短縮する

 ラマワスミ氏によると、Snowflake自身もNVIDIAのGPUが実現するアクセラレーテッドコンピューティングを活用しており、これにより「SnowflakeのAIチームは、Snowflake Arcticをわずか3カ月、数百万ドルで開発した」という。さらに、モデルをトレーニングする時間も短縮でき、効率性を改善できたと付け加えた。

 これについてNVIDIAのフアン氏は「市場投入までの時間」という観点から、次のように語った。

 「AIは大規模なコンピューティングを必要とするが、同時にできるだけ高速に実行することも求められる。(クラウドの)インフラを借りる時間が短いほどコストは下がる。モデルのトレーニングの反復回数が多いほど市場への投入が早くなる。市場投入までの時間は何よりも重要だ」(NVIDIA フアン氏)

台湾からオンラインで登壇したNVIDIA 創業者兼CEOのジェンスン・フアン(Jensen Huang)氏

 フアン氏が指摘するとおり、AIを活用した製品やサービスをめぐる競争は激しく、それゆえに市場投入までのスピードはかつてないほど重要なものになっている。これを、NVIDIAとSnowflakeの提携によって支えるというわけだ。

 さらにフアン氏は、生成AIの時代になったことで、AIの重要なポイントが推論からトークンに代わったと述べる。

 「できるだけ早くトークンを生成し、双方向性と体験を向上させる。生成する時間は重要だ。そこでNVIDIAはトークン生成のための革新的なランタイムであるTensorRT LLMを開発した。これをSnowflakeに統合する」(フアン氏)

 フアン氏はもう1つ、今回の提携に含まれるNeMo Retrieverも取り上げた。NeMo Retrieverは“セマンティッククエリライブラリ”と呼ばれるもので、数百人の開発者と数年の開発期間をかけて実現したコンピュートエンジンだと、フアン氏は説明する。

 「Snowflake上にある企業の重要なデータに対して、データのエンベディング(ベクトル化)、インデックス作成、検索などができ、チャットできるように直接つなげることができる。そして、社内で開発している他のマイクロサービスやAIに接続できるようになる」(フアン氏)

 このNeMo RetrieverをSnowflakeに統合することで、Snowflakeからコンピューターへデータを移すことなく「高性能コンピューティング、アクセラレーテッドコンピューティング、ジェネレーティブAIコンピューティングをデータにもたらす」とフアン氏は説明する。「これはとても大きなことだ。データの移動にかかるコスト、時間、その他に色々と生じる作業を考えると革命的なことだ」(フアン氏)。なお、昨年の発表ではこれを「DWHの隣に“AIファクトリー”を作る」と表現していた。

企業へのアドバイスは「変化の中に身を置き、AIの活用を進めること」

 SnowflakeとNVIDIAの統合環境を活用している事例として、シーメンス・エナジー(Siemens Energy)が紹介された。シーメンス・エナジーでは、Cortex AI、NVIDIA GPU、Stremlit(Snowflakeのデータサイエンス向けPythonフレームワーク/UI)を組み合わせ、RAGを利用して70万ページ以上あるR&Dドキュメントの内容を参照して回答する生成AIチャットボットを開発したという。

 最後に、企業におけるAI活用についてのアドバイスを求められたフアン氏は、NVIDIA自身が「チップの製造と設計」というビジネスの変革を進めていることを紹介しながら、「変化の中に身を置き、AIの活用を進めること」だと述べた。

 「生成AIがなければ携わることができないビジネスがたくさんある。それをさらに水平展開することで、自社にとって最も重要なビジネスプロセスを見い出す取り組みを進める」。これを、人が変わっても残る“企業のDNA”に組み込んでいくことを大切にしていると語った。

■関連サイト

カテゴリートップへ

  • 角川アスキー総合研究所
  • アスキーカード