このページの本文へ

AMD、AI利用を加速するZen5採用のモバイルプロセッサーやサーバー用EPYCプロセッサーを発表

2024年10月15日 10時45分更新

文● ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

Ryzen AI PRO 300 シリーズプロセッサー

 AMDは10月11日、サンフランシスコで開催された「Advancing AI」イベントにて、第5世代のRyzen AI PROモバイルプロセッサーやAMD EPYCプロセッサー・アクセラレーターなどを発表した。

 「Ryzen AI PRO 300」シリーズプロセッサーは、新しいAMD「Zen 5」アーキテクチャーを採用。前世代と比較して最大3倍というAI計算能力を提供し、最上位モデルの「Ryzen AI 9 HX PRO 375」はインテルCore Ultra 7 165Uと比べて最大40%の高いパフォーマンスと最大14%の生産性向上を実現するという。

 また、XDNA 2アーキテクチャーを搭載したNPUにより50TOPS(テラフロップス)以上というAI処理能力を実現し、MicrosoftのCopilot+ AI PC要件を上回る性能を発揮。さらに新プロセッサーは4nmプロセスを採用し、電力管理技術によりモバイル環境でのパフォーマンスや長時間のバッテリー駆動を実現。

AMD Ryzen AI PRO 300シリーズ モバイル プロセッサー

モデル Core/Thread Boost/Base Frequency Total Cache Graphics Model(AMD) cTDP TOPS
AMD Ryzen AI 9 HX PRO 375 12C/24T Up to 5.1GHz/2GHz 36MB Radeon 890M Graphics 15- 54W Up to 55
AMD Ryzen AI 9 HX PRO 370 12C/24T Up to 5.1GHz/2GHz 36MB Radeon 890M Graphics 15- 54W Up to 50
AMD Ryzen AI 7 PRO 360 8C/16T Up to 5GHz/2GHz 24MB AMD Radeon 880M Graphics 15- 54W Up to 50

 既存のAMD Secure Processor、AMD Shadow Stack、AMD Platform Secure Bootに加え、 新たなセキュリティーと管理機能で強化。これによりクラウドベアメタル回復が標準装備され安定した運用をサポート。さらに新しいサプライチェーンのセキュリティー機能Supply Chain Security(AMD Device Identity)により、サプライチェーン全体での追跡が可能になるほか、ウォッチドッグタイマーの追加により、既存の回復力サポートをさらに強化。PROテクノロジーでは、一部のISVパートナーと連携し、AIベースのマルウェア検出機能を追加で提供する。

第5世代AMD EPYCプロセッサー

 コードネーム「Turin」として開発されていた第5世代「AMD EPYC 9005シリーズプロセッサー」の詳細も発表された。Zen 5コアアーキテクチャーが採用されたエンタープライズ用途やAI、クラウド向けとして世界最高クラスをうたうサーバー用CPU。8コアから192コアまでの幅広いラインアップを揃え、最上位の192コアCPUは競合製品と比べて最大2.7倍の性能を発揮するという。

第5世代AMD EPYCプロセッサー ラインアップ
192コア:9965
160コア:9845
144コア:9825
128コア:9755/9745
96コア:9655/9655P/9645
72コア:9565
64コア:9575F/9555/9555P/9535
48コア:9475F/9455/9455P
36コア:9365
32コア:9375F/9355/9355P/9335
24コア:9275F/9255
16コア:9175F/9135/9115
8コア:9015

 とくに新たに加わった64コア「AMD EPYC 9575F」はGPUを活用したAIソリューション向けに特化した設計となっており、最大5GHzで動作。競合製品の3.8GHzに比べて最大28%の高速処理を実現。いずれも提供が開始されており、主要なODMやクラウドサービスプロバイダーをサポート。

 次世代AIインフラの大規模展開を支える最新のアクセラレーターとネットワーキングソリューションも発表。「AMD Instinct MI325X」アクセラレーターはAMD CDNA 3アーキテクチャを基に設計され、256GBという業界最高水準のHBM3Eメモリーと6.0TB/sの帯域幅を提供。「H200」と比較して容量1.8倍・帯域幅1.3倍に向上し、1.3倍のピーク理論とFP16およびFP8演算性能を備える。基盤モデルのトレーニング、ファインチューニング、推論などの高度なAIタスクで優れたパフォーマンスと効率を発揮するという。

 さらに、次世代の「AMD Instinct MI350」シリーズアクセラレーターも発表。AMD CDNA 4アーキテクチャーを基にしており、AMD CDNA 3ベースのアクセラレーターと比較して推論性能が35倍向上するという。2025年下半期の発売が予定されている。

 このほか、DPUの第3世代となるフロントエンド用「AMD Pensando Salina DPU」、UEC対応AI NICのバックエンド用「AMD Pensando Pollara 400」も発表。フロントエンドがAIクラスターにデータや情報を提供し、バックエンドがアクセラレータとクラスター間のデータ転送を管理することで、AIインフラにおいてCPUとアクセラレータを効率的に活用でき、生成AIモデルやデータセンターにおける新たなスタンダードを確立できるとしている。

カテゴリートップへ