このページの本文へ

前へ 1 2 次へ

AI活用の加速を背景として「ハイブリッドクラウド戦略がさらに重要なものに」

HPEのネリCEO、NVIDIAとのタッグで「AIというチャンス」に自信

2024年07月22日 15時30分更新

文● 末岡洋子 編集● 大塚/TECH.ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

「AI活用の加速で、ハイブリッドクラウドのニーズも加速する」

 ネリ氏は、エンタープライズAI市場を(1)モデルを自ら構築する企業やハイパースケーラー、(2)ソブリンクラウドのアプローチが必要な企業/組織、(3)その他の企業に分類したうえで、(3)の課題と解決策を次のように語る。

 「データを準備し、あらゆる基盤モデルを導入し、データを使ってモデルをトレーニングする。これらを1つの統合された体験として導入する専門知識、時間や人手がない。だからこそ、アプリケーションからワークフロー、インフラまで、単一の製品として提供するターンキーアプローチが重要になる」

 HPE Private Cloud AIでは、GreenLake CloudのコンソールでAIワークロードの種類(推論、ファインチューニングなど)を選び、3回クリックするだけで、数十秒でAIアプリケーションが導入できるという。

 現在は、パブリッククラウドでさまざまなAIプラットフォームのサービスが展開されているが、プライベートクラウドにも必要なのか? その疑問に対して、ネリ氏は「AIはその性質上、ハイブリッドクラウドのアーキテクチャを必要とする。AI活用の加速によって、間違いなくハイブリッドクラウドへのニーズも加速する」と断言する。

 その理由を、ネリ氏は“データグラビティ(データの重力)”という言葉で説明する。AIモデルのトレーニングに使う大量のデータは、容易に場所(自社データセンターやクラウド)を動かすことができない。また、セキュリティや法規制などの制約があり、データを動かせないケースもある。したがって、トレーニングやファインチューニングのワークロードは“データの重力”に引き寄せられ、データのある場所で実行することになる。

 トレーニングよりも顕著なのが、推論のワークロードだ。推論処理に使うデータのほとんどはエッジのエンドポイントで発生する。したがって、推論処理も“データの重力”に引き寄せられ、エッジで実行することになる。また、ここには処理パフォーマンスという要素も関係してくる。たとえば、工場の製造ラインを検査するカメラ画像は、クラウドやデータセンターに送信して20秒後に判定を得るよりも、工場内のサーバーで1秒後に判定が得られたほうがよい。

 このように、エッジで多くの推論が行われるようなると、ハイブリッドクラウドのニーズがさらに高まるというわけだ。

HPE Private Cloud AIでは、推論(Small)からRAG(Medium)、ファインチューニング(Large/Extra Large)まで、用途に応じた構成のラインアップを提供

AI/GPUサーバー時代に必須の液体冷却技術は「他社とは歴史が違う」

 大量のAI処理を目的としたGPUサーバーを中心に、この数年、サーバーメーカー各社は自社独自の水冷技術(冷却技術)の優位性をアピールしている。もちろんHPEもその一社だが、ネリ氏は「HPEは(他社とは)歴史が違う」と強調する。

 「冷却技術に関して、HPEは熱交換で熱を回収する『Adaptive Rack Cooling System』など、100件以上の知的所有権を持っている。(分社化する前の)Hewlett Packard時代から20年以上、直接液体冷却の研究と開発を続けており、ミッションクリティカルなシステムでも直接液体冷却を導入している。たとえば2011年の『HP Apollo』は、スパコンで初めて直接液体冷却を導入した。(現行のスパコンである)HPE Frontier、HPE Aurora、HPE Venadoなどのシステムも、100%直接液体冷却だ」

 さらに、HPEでは冷却システムも製造しており、この点も他社にはない重要な違いだと述べた。

前へ 1 2 次へ

カテゴリートップへ

  • 角川アスキー総合研究所
  • アスキーカード