このページの本文へ

さくらインターネット、学習・推論の両輪でクラウドサービスを早期拡充

スパコン「さくらONE」がNVIDIA B200追加 H200との混在で生成AI+HPCをカバー

2025年10月22日 08時00分更新

文● 福澤陽介/TECH.ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

 さくらインターネットは、2025年10月20日、マネージドスーパーコンピューターサービス「さくらONE」において、NVIDIAのBlackwellアーキテクチャによる最新GPU「NVIDIA B200 GPU」を提供開始した。

 さくらONEは、ひとつのシステムでNVIDIA B200 GPU(最大384基)とNVIDIA H200 GPU(最大440基)を使い分けられるヘテロジニアス(異種混在)構成に対応し、AI開発から先端研究まで、幅広いユースケース向けに高性能な計算リソースを提供する。

 さくらインターネットのAI事業推進室 兼 さくらインターネット研究所の上級研究員である小西史一氏は、さくらONEについて、「単なるマネージドHPCクラスタのサービスというだけではなく、われわれのミッションである『計算力を提供するインフラを民間から整備して、誰もが付加価値を創れる社会』を実現するためのサービス」と説明した。

さくらインターネットが生成AI向けクラウドサービスを拡充する理由

 日本社会と産業の発展に資するべく、AI計算資源の安定供給を目指すさくらインターネット。現在、AIインフラの整備とその計算資源を基にした生成AI向けクラウドサービスの拡充に注力している。

 AIインフラの投資計画は、第一段階として2024年8月までに「NVIDIA H100 GPU」を2000基設置(その後840基を増強)。そして、現在進行中の第二段階では、2027年度までに総GPU数を「1万基」、総計算能力(第一段階ぶんも含む)を「18.9EFLOPS」まで到達させる計画だ。

 第二段階の現時点までの進捗は、NVIDIA H200 GPUを1072基、さらにNVIDIA B200 GPUを約400基設置済みだ。石狩データセンター内のコンテナ型データセンターの稼働とあわせて、これらを生成AI向けクラウドサービスとして展開している。なお、NVIDIA B200 GPUは約1100基を増強予定であり、今後も需要に応じて次世代GPUを継続して採用していく方針である。

AI基盤事業の整備スケジュール

 一方、生成AI向けクラウドサービスとしては、これまで高火力シリーズであるPHY・VRT・DOKを提供してきた。加えて直近では、「学習(AI開発)」と「推論(AI利用)」の2つの用途向けのサービスを拡充した。ひとつは、推論用途向けに展開するビジネス基盤「さくらのAI」だ。2025年9月には、第1弾サービスとして、推論API基盤「さくらのAI Engine」を一般提供している。

 そして、同じく2025年9月に、学習用途向けとして提供開始したのが、NVIDIA H200 GPUを搭載したマネージドスーパーコンピューター「さくらONE」である。今回このさくらONEに、最新GPUであるNVIDIA B200 GPUによる構成が新設されている。

生成AI向けクラウドサービスの位置付け

 このように同社がクラウドサービスを拡充する背景には、予想を超える勢いで推論ニーズが拡大していることがある。同社のAI事業推進室 AI基盤事業統括である須藤武文氏は、「当初は、開発における学習ニーズが先にきて、その下流である推論に振り替わっていく流れを想定していた」と語る。

 それが、生成AIの活用フェーズが急速に本格化することで、学習と推論のニーズが同時に高まり、さらには事業者による競争も激化。「少数の事業者による、大規模投資を分け合うような市場を予想していたが、今は事業者が入り乱れている状態にある」と須藤氏。

 そして、玉石混交なサービスが提供される中で、国産プラットフォームに対しては、特に要件が厳しい日本の組織から、信頼性や質、価格といった多角的な要求が高まっているという。

 こうした背景を受け、同社は、先行準備していた多様な生成AI向けクラウドサービスを早期に市場投入している状況だ。なお、同社は体制的にも対応すべく、AI事業に関する機能をひとつの部門に集約。2025年8月に、戦略や企画、開発、営業が一気通貫で連携するための「AI事業推進室」を新設している。

“ヘテロジニアス(異種混在)構成”でAIと科学技術計算の両領域をカバー

 この生成AI向けクラウドサービスのひとつである「さくらONE」は、さくらインターネットが運用するスーパーコンピューターの計算資源を国内から提供する。スーパーコンピューターは、石狩データセンター内のコンテナ型データセンターで構築されており、LLM学習や生成AIの研究開発に特化した設計となっている。

 今回、従来提供していたNVIDIA H200 GPUを8基搭載したサーバーを最大55台、計440基の構成をとる「NVIDIA H200 GPUモデル」に加えて、NVIDIA B200 GPUを8基搭載したサーバーを最大48台、計384基の構成をとる「NVIDIA Blackwell GPUモデル」を追加している。

 また、計算資源だけではなく、計算ジョブの管理機能(ジョブスケジューラ)やアカウント管理、障害時のノード交換対応など、計算環境の立ち上げから運用管理までをカバーするマネージドサービスとして提供される。HPC環境向けに開発されたSingularityコンテナも利用でき、保持していた計算を持ち込むことも可能だ。利用期間は最低30日から、1日単位で利用でき、計画的な利用だけでなく、試験導入や段階的なスケーリングにも対応する。

「さくらONE」のシステム概要

 さくらONEが、他のGPUスーパーコンピューターと異なる点は、ひとつのシステム内でNVIDIA B200 GPUとNVIDIA H200 GPUの計算ノードを使い分けられる“ヘテロジニアス(異種混在)”構成に対応することだ。両計算ノードが共有するストレージシステム(Luster File System)も用意される。

 さくらインターネットの小西氏は、NVIDIA B200 GPUはメモリサイズの違いからより生成AI・LLM学習に向いており、NVIDIA H200 GPUは科学技術計算で優秀に働くとして、「両者の良いところを取り入れられるバランスがとれた仕組み」と説明する。

 また、同社のデータセンター運用のノウハウにより、GPUをフルパワー電力(NVIDIA B200 GPUは1基につき1000W、NVIDIA H200 GPUは1基につき700W)で利用可能な点も特徴として挙げられた。

NVIDIA B200 GPUとNVIDIA H200 GPUとの違い

 さくらONEのマネージドスーパーコンピューターは、「2024年内閣府戦略的イノベーションプログラム(SIP)」第3期における医療LLM開発のために自社構築したものを、技術を再構成して商用化したもの。「われわれが、実際にLLMを開発するのに不可欠なシステムとして、高火力PHYをベースとしたマネージドHPCクラスタを組み立てていた」(小西氏)

 また、スーパーコンピューターの国際的な処理性能ランキングである「TOP500」においても、世界49位にランクイン(2025年6月)している。次回のTOP500にもエントリー予定だという。

■関連サイト

カテゴリートップへ

本記事はアフィリエイトプログラムによる収益を得ている場合があります

アクセスランキング

  1. 1位

    TECH

    訓練だとわかっていても「緊張で脇汗をかいた」 LINEヤフー、初のランサムウェア訓練からの学び

  2. 2位

    ITトピック

    若手が言わない“本音の退職理由”上位は/「データ停止は景気後退よりも企業の脅威」6割/クライアントに告げずAI活用するフリーランス、ほか

  3. 3位

    ビジネス・開発

    最悪のシナリオは「フィジカルAI」による基幹産業の衰退 日本の勝ち筋は、“同期技術”と“ドメイン知識”

  4. 4位

    Team Leaders

    ファイル名が命名規則に合っているかの自動チェック、Power Automateのフローで実現しよう

  5. 5位

    TECH

    糖尿病超早期を採血なしで検出、予防へ! 代謝や臓器のつながりに着目した予防法開発

  6. 6位

    データセンター

    液冷技術の最先端が集うイノベーションラボ「DRIL」、印西のデータセンターに現わる

  7. 7位

    ビジネス

    廃校がAIの心臓部に!? 地方の遊休施設を「AIデータセンター」に生まれ変わらせるハイレゾの挑戦がアツいぞ

  8. 8位

    TECH

    “GPUなし”ノートPCで動くLLMで、ローカルAIエージェントを自作する

  9. 9位

    Team Leaders

    バックオフィス業務もAIに“丸投げ” マネーフォワードが「Cowork」機能を2026年7月に投入へ

  10. 10位

    TECH

    合成ゴムが及ばない天然ゴムの高性能のメカニズムを、現象発見から100年後に解明

集計期間:
2026年04月09日~2026年04月15日
  • 角川アスキー総合研究所