このページの本文へ

前へ 1 2 次へ

NVIDIA提携による「Lenovo Hybrid AI Advantage」や「GB200」GPU搭載の水冷サーバーを発表

「AI活用はクラウドだけでは完成しない」―Lenovo幹部が語るハイブリッドAI戦略

2024年12月16日 09時00分更新

文● 末岡洋子 編集● 大塚/TECH.ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

 AI時代におけるLenovoの戦略は、1年前に打ち出した「ハイブリッドAi(Hybrid AI)」だ。スマホやPCからサーバー、エッジデバイスまで、幅広いハードウェア製品をラインアップする同社は、その旗印の下でどのような戦略を描くのか。

 今年10月、Lenovoが米国シアトルで開催した年次イベント「Lenovo Tech World 2024」の会場で、Lenovoのインフラソリューショングループ(ISG)幹部を務めるウラジミール・ロザノヴィチ氏に話を聞いた。

Lenovo プレジデント/インフラソリューショングループ(ISG)担当SVPのウラジミール・ロザノヴィチ(Vladimir Rozanovich)氏

「AI活用のためのITインフラは、クラウドだけでは完成しない」

――現在のLenovoがキーワードとして掲げる「ハイブリッドAI」ですが、どのように定義される言葉でしょうか。

ロザノヴィチ氏:ハイブリッドAIという言葉には、さまざまな意味が込められている。

 ハードウェアベンダー各社は、すでに「ハイブリッドIT」という言葉を掲げている。業務アプリケーションの実行形態として、旧来のオンプレミスから、いったんはクラウドへの移行が進んだ。しかし、データセキュリティやプライバシーへの懸念、管理権限を自社で持ちたいといったニーズがあり、クラウドとオンプレミスの組み合わせ(ハイブリッド)を求める顧客の声が強まった。それを実現するのがハイブリッドITだ。

 これと同じことが、AIの領域でもこれから起きるだろう。AI活用のためのITインフラは、クラウドだけでは完成しないからだ。

 現在、AIを開発/実行する環境として、多くの場合はクラウドが使われている。大規模なインフラ、キャパシティ、電力容量を持ち、AIニーズを理解したエンジニアも有しているからだ。今後も、LLM(大規模言語モデル)のトレーニング処理のような大規模なリソースを必要とするケースでは、クラウドやGPUサーバーサービスが活用されるだろう。

 一方、トレーニング済みのLLMが実行されるのはクラウド上だけではない。推論やRAGの処理フェーズでは、処理対象のデータが必要となるが、顧客情報や機密情報といったデータをクラウドに動かしたくない。そのため、オンプレミスやエッジ(デバイスを含む)でも、LLMを実行することが必要になると考えている。

 これを実現するのがハイブリッドAIだ。基盤モデルの学習はクラウドで実行しつつ、自社固有のデータによる再学習(ファインチューニング)はオンプレミスで行う、パーソナルデータを用いた推論はパーソナルデバイスで行う、といった役割分担を行う。パラメーター数の少ないSLM(小規模言語モデル)で十分な場合は、クラウドを使わず、オンプレミスでも基盤モデルの構築から実行できるだろう。

――しかし、ハイブリッドAIの基盤はハイブリッドITであり、そこには多くのハードウェアベンダーが注力しています。Lenovoならではの「強み」はどこにあるのでしょうか。

ロザノヴィチ氏:Lenovoの強みとしてまず挙げられるのが、エッジからクラウドまでをカバーするプラットフォームを提供できる点だ。大規模なデータセンターから零細企業まで、Lenovoの顧客ベースは幅広いが、このプラットフォームが顧客のあらゆるニーズに応える。

 また、Lenovoでは「AI活用がどういうビジネス成果を生むのか」という視点も大切にしている。顧客のハイブリッドAI支援に携わるのも、データセンター製品を提供するISG部門だけではない。AIコンサルティングを実践するソリューションサービスグループ(SSG)があり、専門性の高いコンサルティングを通じて、顧客が達成したいビジネス成果の定義や達成を支援する。

 さらに、ビジネス成果実現に必要なサービス要素を考えると、Lenovoのチャネルパートナーの役割も重要だ。チャネルパートナーと協力し、補完し合いながら、ハイブリッドAIに向けたサービスを提供していく。

前へ 1 2 次へ

カテゴリートップへ

  • 角川アスキー総合研究所
  • アスキーカード