NVIDIA、巨大なAI とハイパフォーマンス コンピューティングのワークロード向けに CPU を発表
NVIDIA
●「Grace」CPU は、エネルギー効率の高い Arm コアを使用し、巨大な AI モデルをトレーニングするシステムに 10 倍のパフォーマンスの飛躍をもたらす ●スイスのスーパーコンピューティング センターと米国エネルギー省のロスアラモス国立研究所が NVIDIA CPU 搭載スーパーコンピューターを最初に構築
2021 年 4 月 12 日 カリフォルニア州サンタクララ — GTC21 — NVIDIA は本日、最も複雑な AI とハイパフォーマンス コンピューティングのワークロードにおいて、今日の最速のサーバーの 10 倍のパフォーマンスを提供する Arm ベースのプロセッサとなる、初のデータセンター CPU を発表しました。
10,000 エンジニアリング人年以上の取り組みの結果、NVIDIA 「Grace」 CPU は、自然言語処理、レコメンダー システム、AIスーパーコンピューティングなど、超高速のコンピューティング パフォーマンスと大容量メモリの両方を必要とする膨大なデータセットの分析を行う、世界最先端のアプリケーションのコンピューティング要件に対応するように設計されました。「Grace」 CPU は、エネルギー効率の高いArm CPU コアと革新的な低消費電力のメモリ サブシステムを組み合わせることで、エネルギー効率に優れた設計によって高いパフォーマンスを実現しています。
スイス国立スーパーコンピューティング センター (CSCS) と米国エネルギー省のロスアラモス国立研究所は、国の科学研究活動を支援するために Grace を搭載したスーパーコンピューターを構築する計画を最初に発表しました。
NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は、次のように述べています。「最先端の AI とデータサイエンスは、現代のコンピューター アーキテクチャの限界を押し広げており、考えられないような大量のデータ処理が可能になっています。Arm の IP ライセンシング モデルを使って、NVIDIA は、巨大なスケールの AI とHPC を想定した CPU である、Grace を開発しました。GPU と DPU と組み合わせることで、 Grace は NVIDIA にとってのコンピューティングの第 3の基盤技術となり、AI を発展させるためにデータセンターを再構築できるようになります。NVIDIA は現在、3 種類のチップを提供する企業となりました」
本プロセッサは、米国のコンピューター プログラミングの先駆者であるグレース ホッパーにちなんで名付けられました。
NVIDIA が Grace CPU を導入するのは、データの量と AI モデルのサイズが急激に増加しているからです。今日の最大の AI モデルには数十億のパラメーターが含まれており、2 か月半ごとに倍増しています。それらをトレーニングするには、システムのボトルネックを解消するために GPU と緊密に結合できる新しい CPU が必要です。
NVIDIA は、Arm のデータセンター アーキテクチャの優れた柔軟性を活用することにより、アクセラレーテッド コンピューティングのためにゼロから設計された CPU である Grace を開発しました。NVIDIAは、新しいサーバークラスの CPU を導入することで、世界で最も差し迫った問題を解決するうえで必要なイノベーションを提供する鍵となる AI および HPC コミュニティにおけるテクノロジの多様性という目標を推進しています。
Arm の CEO であるサイモン シガース (Simon Segars) は次のように述べています。「世界で最も広くライセンスされているプロセッサ アーキテクチャとして、Arm は日々驚くほどの新たな方法でイノベーションを推進しています。NVIDIA による Grace データセンター CPU の発表は、Arm のライセンシング モデルがいかに重要な発明を可能にするかを明確に示しています。これは、あらゆる場所の AI 研究者や科学者の素晴らしい仕事をさらにサポートするものです」
Grace の最初の採用が科学と AI の限界を高める
CSCS とロスアラモス国立研究所はどちらも、Hewlett Packard Enterprise によって構築された Grace 搭載のスーパーコンピューターを 2023 年に稼働させることを計画しています。
CSCS のディレクターであるトーマス シュルテス教授 (Prof. Thomas Schulthess) は次のように述べています。「NVIDIA の新しい Grace CPU を使用すると、AI テクノロジと従来のスーパーコンピューティングを統合して、計算科学における最も困難な問題のいくつかを解決できます。私たちは、大規模かつ複雑な科学データセットを処理および分析するために、新しい NVIDIA CPU をスイスや世界中のユーザーが利用できるようになることを嬉しく思います」
ロスアラモス国立研究所所長のトム メイソン氏 (Thom Mason) は次のように述べています。「メモリ帯域幅と容量の革新的なバランスにより、この次世代システムは私たちの機関のコンピューティング戦略を形作るでしょう。NVIDIA の新しい Grace CPU のおかげで、忠実度の高い 3D シミュレーションを用いた高度な科学研究や、これまでよりも大規模なデータセットを用いた分析が可能となります」
飛躍的なパフォーマンスの提供
Grace ベースのシステムは、x86 CPU で実行される今日の最先端の NVIDIA DGX™ ベースのシステムよりも 10 倍速く 1 兆パラメーターの NLP モデルをトレーニングできます。
このパフォーマンスの根底にあるのは、第 4 世代の NVIDIA NVLink(R) 相互接続テクノロジであり、NVIDIA Grace CPU と NVIDIA GPU の間で記録的な 900 GB/s の接続を提供し、今日の主要サーバーと比較して 30 倍高い総帯域幅を実現します。
Grace は、革新的な LPDDR5x メモリ サブシステムを採用し、DDR4 メモリと比較して 2 倍の帯域幅と 10 倍優れたエネルギー効率を実現しています。さらに、新しいアーキテクチャは、単一のメモリ アドレス空間で統合されたキャッシュ コヒーレンスを提供し、プログラマビリティを簡素化するためにシステムと HBM GPU メモリを組み合わせます。
NVIDIA Grace CPU は、NVIDIA HPC ソフトウェア開発キットと CUDA(R) および CUDA-X™ ライブラリの完全なスイートによってサポートされ、2,000 を超える GPU アプリケーションを高速化し、世界で最も重要な課題に取り組んでいる科学者や研究者の発見を加速します。
2023 年初頭に発売予定です。