このページの本文へ

前へ 1 2 3 次へ

COMPUTEX TAIPEI 2025レポート 第31回

次世代ラックスケールシステム「Kyber」を2027年に出荷予定 NVIDIAのエンタープライズ戦略

2025年05月23日 11時00分更新

文● 中山 智 編集●北村/ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

AI開発を加速するクラウドプラットフォーム
「DGX Cloud Lepton」

 GTC Taipeiで発表された新しいクラウドソフトウェア「DGX Cloud Lepton」も紹介された。これは、AI開発者がGPUインスタンスを利用する際の環境構築時間を短縮することを目的としている。

 ユーザーは、利用したいリージョンやGPUインスタンス(NBS、Lambda、YottaなどのNVIDIA Cloudパートナーから選択可能)を選択できる。BYO(Bring Your Own)アカウントやオンデマンドでのレンタルが可能である。利用するGPUの種類(H100、A100など)も選択可能。

 AI開発者の多くはコンテナ環境でジョブを実行するため、自身のコンテナイメージを提供するか、Docker HubやNVIDIA Cloudなどの公開イメージから引っ張ってくることも可能だ。

 NVIDIA Cloudパートナーのインフラストラクチャーは、NVIDIAのリファレンスアーキテクチャーを採用しており、最適化・標準化されているため、ユーザーはマルチGPUジョブやマルチノードジョブを容易に実行でき、大規模モデルのトレーニングにも適している。トレーニング済みのモデルは、NVIDIA NIMとしてエンドポイントに展開できる。

 展開したNIMサービスは、エンドポイントを通じてテストが可能であり、ChatGPTのようなプレイグラウンド形式で質問を送信したり、API経由でリクエストを送信するといった検証が可能とのこと。

 DGX Cloud Leptonの大きな利点は、GPUリソースのレンタルやコンテナサービスの展開において、IT専門家がほとんど不要であることだという。スタートアップや小規模企業のように、多くのIT専門家を抱えていない組織でも、AWSやGCPのようなクラウドサービスでGPUインスタンスを管理するために専門家を雇う必要がなく、DGX Cloud Leptonを通じて容易にリソースをレンタルし、自身の環境を展開して、AI開発ジョブやトレーニング、サービスを開始できる。

 これは、データセンター向けDGXシステムと手元環境向けDGX Personal/Stationが共通のソフトウェアスタックを持つことと合わせて、AI開発・活用のハードルを下げるためのNVIDIAの包括的な取り組みを象徴していると言える。

【関連サイト】

前へ 1 2 3 次へ

カテゴリートップへ

この連載の記事

ASCII倶楽部

注目ニュース

  • 角川アスキー総合研究所

プレミアム実機レビュー

ピックアップ

デジタル用語辞典

ASCII.jpメール デジタルMac/iPodマガジン