このページの本文へ

前へ 1 2 次へ

Dell Technologies CTOのジョン・ローズ氏、2024年の企業テクノロジートレンドを解説

2024年、実運用段階に入る生成AIの「課題」とは? ― Dell CTOが予想

2023年12月18日 07時00分更新

文● 末岡洋子 編集● 大塚/TECH.ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

 2022年末の「ChatGPT」公開を皮切りに、「生成AI」の話題が世の中を席巻したこの1年。それでは来年、2024年はどんな年になるのか? エンタープライズ市場のテクノロジートレンドは何か?

 米Dell TechnologiesのCTO、ジョン・ローズ氏は、来年も引き続き生成AIのトレンドは避けて通れないが「2024年は実用性が向上し、実際の運用に入る年になるだろう」と語る。

米Dell Technologies CTOのジョン・ローズ(John Roese)氏。「来年のテクノロジートレンド」を解説する毎年恒例のセッションを、2023年12月1日に開催した

実践段階に入る生成AIは「推論」に注目、GPUやツールの「選択肢」も増える

 2024年のテクノロジー動向に対するローズ氏の予想は次の4つだ。以下、それぞれに対するローズ氏の見解もまとめる。

 (1)生成AIの議論は「理論」から「実践」へ
 (2)企業向け生成AIのためのサプライチェーン/エコシステムは改善へ
 (3)ゼロトラストが現実に
 (4)エッジプラットフォームが台頭

ローズ氏が考える2024年のテクノロジービジョン、4つ

●(1)生成AIの議論は「理論」から「実践」へ
 生成AIは2024年、「実践」の段階へと歩を進める。ローズ氏は、実践におけるポイントを3つ挙げる。

 1つ目のポイントが、AIモデルをトレーニングするためのインフラ構築から、推論インフラの構築へのシフトだ。「モデルをトレーニングするだけでは、ビジネス上のメリットは何も得られない。そこにデータをインプットし、推論をさせることで、初めて(そのモデルを)利用したことになる」(ローズ氏)。

 まず2023年には推論にどのモデルを使うか、インフラのアーキテクチャをどうするかといった作業が進み、2024年にその運用がスタートする、と見る。推論のインフラをどうするか、どこで推論を実行するか(データセンターやクラウド、エッジなど)、セキュリティはどう担保するか、といった議論が必要になる。

 「どこで推論を実行するか」について、ローズ氏はDell Technologies社内の実例も紹介した。同社では北米に大規模な中央データセンターを構えているが、推論の処理はグローバルに分散させていく方針だという。これにより、アジア太平洋など北米以外の地域でもリアルタイムのレスポンスが得られるようにする。

 2つ目のポイントはコストに関するものだ。1つ目のポイントと関係しているが、コストについても「トレーニング」から「オペレーション」のコストへと注目がシフトする。モデル構築は、「Llama 2」などの基盤モデルを使ってファインチューニングを行うことで「コストはそれほどかからなかった」が、推論を実行するうえでのオペレーションでは様相が変わる。「モデルを使った推論処理は(トレーニングのような)一度きりのコストではない」。推論処理は、システムでトランザクションが発生するたびに発生するからだ。

 Dell Technologiesの場合、任意の製品に関するフィールドエンジニアの疑問にすぐ回答するシステムを構築しているが、このシステムでは「月に5000万回程度のトランザクション」が発生すると予想している。そのため「(モデルの)構築に大きなコストはかからなかったが、推論となるとインフラ、それに電力のコストも考えなければならない」と説明する。こうしたことから、2024年は「オペレーションのコスト、投資対効果(ROI)に注目が集まるだろう」と述べる。

 3つ目のポイントは、「“全社的な実験”のモードから、戦略的なプロジェクトを選択して、生成AIプロジェクトを実行する」だ。生成AIに価値を見出した企業は、今後どの生成AIプロジェクトを進めるのかを戦略的に選択して、本格的に実行する段階に入る。

 Dell Technologiesの場合、生成AI活用の優先順位として、まずは自社ビジネスの中核をなす「営業プロセス」「製品開発プロセス」「サポートサービス」のモダン化から進めることにしたという。

●(2)企業向け生成AIのためのサプライチェーン/エコシステムは改善へ

 ここで「改善」が予想されているのは、生成AIの急激な盛り上がりなどによって入手が困難になっているGPUなどのサプライ(供給)のことだ。

 ローズ氏は、GPUのサプライは「2024年も豊富にはならない」ものの「選択肢が出てくる」と述べる。これまではNVIDIA製GPUが中心を占めていたが、AMDの「Instinct MI 300X」やIntelの「Gaudi2」といったGPU/アクセラレーターも選択肢となってくる。

 モデルについても選択肢が増える見込みだという。「ほぼ毎週のように、新しいオープンなモデルが企業向けに公開されている」。選択肢が増えることで、企業はユースケースに合わせて柔軟に選択し、最適化できるという。

 ソフトウェアツールでも、Metaのフレームワーク「PyTorch」、NVIDIAの並列コンピューティングプラットフォーム「CUDA」、Linux Foundationの「UXL(United Acceleration)」などを紹介した。

 「(企業向け生成AIの)サプライチェーンは2024年も複雑だが、ソフトウェアとモデルという点では大きく改善する。半導体のアベイラビリティも改善するだろう」(ローズ氏)

前へ 1 2 次へ

カテゴリートップへ

  • 角川アスキー総合研究所
  • アスキーカード