このページの本文へ

前へ 1 2 次へ

NVIDIA提携による「Lenovo Hybrid AI Advantage」や「GB200」GPU搭載の水冷サーバーを発表

「AI活用はクラウドだけでは完成しない」―Lenovo幹部が語るハイブリッドAI戦略

2024年12月16日 09時00分更新

文● 末岡洋子 編集● 大塚/TECH.ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

 AI時代におけるLenovoの戦略は、1年前に打ち出した「ハイブリッドAi(Hybrid AI)」だ。スマホやPCからサーバー、エッジデバイスまで、幅広いハードウェア製品をラインアップする同社は、その旗印の下でどのような戦略を描くのか。

 今年10月、Lenovoが米国シアトルで開催した年次イベント「Lenovo Tech World 2024」の会場で、Lenovoのインフラソリューショングループ(ISG)幹部を務めるウラジミール・ロザノヴィチ氏に話を聞いた。

Lenovo プレジデント/インフラソリューショングループ(ISG)担当SVPのウラジミール・ロザノヴィチ(Vladimir Rozanovich)氏

「AI活用のためのITインフラは、クラウドだけでは完成しない」

――現在のLenovoがキーワードとして掲げる「ハイブリッドAI」ですが、どのように定義される言葉でしょうか。

ロザノヴィチ氏:ハイブリッドAIという言葉には、さまざまな意味が込められている。

 ハードウェアベンダー各社は、すでに「ハイブリッドIT」という言葉を掲げている。業務アプリケーションの実行形態として、旧来のオンプレミスから、いったんはクラウドへの移行が進んだ。しかし、データセキュリティやプライバシーへの懸念、管理権限を自社で持ちたいといったニーズがあり、クラウドとオンプレミスの組み合わせ(ハイブリッド)を求める顧客の声が強まった。それを実現するのがハイブリッドITだ。

 これと同じことが、AIの領域でもこれから起きるだろう。AI活用のためのITインフラは、クラウドだけでは完成しないからだ。

 現在、AIを開発/実行する環境として、多くの場合はクラウドが使われている。大規模なインフラ、キャパシティ、電力容量を持ち、AIニーズを理解したエンジニアも有しているからだ。今後も、LLM(大規模言語モデル)のトレーニング処理のような大規模なリソースを必要とするケースでは、クラウドやGPUサーバーサービスが活用されるだろう。

 一方、トレーニング済みのLLMが実行されるのはクラウド上だけではない。推論やRAGの処理フェーズでは、処理対象のデータが必要となるが、顧客情報や機密情報といったデータをクラウドに動かしたくない。そのため、オンプレミスやエッジ(デバイスを含む)でも、LLMを実行することが必要になると考えている。

 これを実現するのがハイブリッドAIだ。基盤モデルの学習はクラウドで実行しつつ、自社固有のデータによる再学習(ファインチューニング)はオンプレミスで行う、パーソナルデータを用いた推論はパーソナルデバイスで行う、といった役割分担を行う。パラメーター数の少ないSLM(小規模言語モデル)で十分な場合は、クラウドを使わず、オンプレミスでも基盤モデルの構築から実行できるだろう。

――しかし、ハイブリッドAIの基盤はハイブリッドITであり、そこには多くのハードウェアベンダーが注力しています。Lenovoならではの「強み」はどこにあるのでしょうか。

ロザノヴィチ氏:Lenovoの強みとしてまず挙げられるのが、エッジからクラウドまでをカバーするプラットフォームを提供できる点だ。大規模なデータセンターから零細企業まで、Lenovoの顧客ベースは幅広いが、このプラットフォームが顧客のあらゆるニーズに応える。

 また、Lenovoでは「AI活用がどういうビジネス成果を生むのか」という視点も大切にしている。顧客のハイブリッドAI支援に携わるのも、データセンター製品を提供するISG部門だけではない。AIコンサルティングを実践するソリューションサービスグループ(SSG)があり、専門性の高いコンサルティングを通じて、顧客が達成したいビジネス成果の定義や達成を支援する。

 さらに、ビジネス成果実現に必要なサービス要素を考えると、Lenovoのチャネルパートナーの役割も重要だ。チャネルパートナーと協力し、補完し合いながら、ハイブリッドAIに向けたサービスを提供していく。

前へ 1 2 次へ

カテゴリートップへ

アクセスランキング

  1. 1位

    ITトピック

    定説をくつがえすNTTの研究 体が理想通りに動かないのは「筋活動のタイミング」が主因

  2. 2位

    sponsored

    AWS黎明期を駆け抜けた後藤和貴の卒業――東京リージョン開設前夜からAI時代へつなぐ、エンジニアの心得

  3. 3位

    ITトピック

    インフラ技術者の7割が“OS・基盤技術の理解不足”に直面/AIを育てる新職種「AIトレーナー」は儲かるか? ほか

  4. 4位

    デジタル

    「ツーピザルール」はもう古い? AI開発でチームは少人数のジェネラリスト集団に

  5. 5位

    データセンター

    再編続く大手SIer系データセンターの現在地 AIによる電力コスト高騰にどう応えるか

  6. 6位

    データセンター

    物理容量33%アップ! 4000心の多心光ファイバケーブルが登場 フジクラが国内データセンター向けに

  7. 7位

    Team Leaders

    実はできる! Power Automateでテーブル設定済みのExcelファイルを新規作成する方法

  8. 8位

    ビジネス・開発

    AI人格に“老い”や“葛藤”を宿す実装論 それっぽく話すチャットボットから脱却するために

  9. 9位

    ビジネス

    “キャリア人材=即戦力”は幻想 活躍の鍵は「1年以上の支援」と「正確な情報提示」

  10. 10位

    ビジネス・開発

    日本企業には「オープンウェイトなLLM」が必要 アリババクラウドが日本の体制強化へ

集計期間:
2026年03月12日~2026年03月18日
  • 角川アスキー総合研究所