2025年12月1日、Amazon Web Services(AWSはフラグシップイベント「AWS re:Invent 2025」を開催。2日の基調講演に登壇したAWS CEOのマット・ガーマン氏は、AIエージェントへの注力をアピール。新発表としてNVIDIA GB300を搭載した新インスタンスや特定顧客向けのAIインフラである「AWS AI Factories」などを発表し、AWSオリジナルのAIチップであるTrainiumの最新動向も披露した。
最強のAIインフラをユーザー向けに提供する「AWS AI Factories」発表
2025年のトレンドとなったAIエージェントに向けて、AWSもサービスの強化を進めている。ガーマン氏は、2006年の創業時から「発明の自由」を追求してきたAWSがAIエージェントに取り組むのは必然と説明。「技術的な興味から、真の価値をもたらすものへと変化し、あらゆる企業で、もっと発明が起こる」とアピールし、AIエージェントで重要なAIインフラ、推論プラットフォーム、組織内のデータ、エージェント向けツールの4つについて説明した。
冒頭に披露したのは、性能と拡張性が欠かせないAIインフラだ。AWSはNVIDIAとのパートナーシップを通じて、最新のGPUの配備にこだわってきた。今回はNVIDIAの「GB300 NVL72」を搭載した「Amazon EC2 P6e-GB300インスタンス」と「P6e-GB300 UltraServers」を追加された。GB200と比較して、2倍のネットワーク帯域、1.5倍のメモリが提供され、もっとも要求の厳しいAIワークロードに対応する。プロダクションレベルでの1兆規模パラメーターのモデルの推論も可能になるという。
新たに発表された「AWS AI Factories」はスケール可能なAIインフラを特定顧客向けに提供する。NVIDIAのGPUやAWSのTrainiumチップを搭載した最新のAIコンピューティング環境、低遅延なネットワーク、高性能なストレージ、セキュリティサービスなどを包括的に提供し、Amazon BedrockやSage Maker AIも利用可能。エンタープライズや政府機関を対象としたコンプライアンスやソブリン(主権性)性を満たしつつ、自社データセンターで最新AIインフラの運用と統合管理が実現する。
推論のほとんどはTrainiumで実行 配置数100万を超える
また、ハイパフォーマンスな推論を可能にするAmazon EC2 Trainium 3 UltraServersの提供開始も発表された。最大144ものTrainiumチップを利用でき、362(FP8)ペタFLOPsを4倍の低遅延で実現。OpenAIのGPT-OSSのモデルを用いた前世代のTrainium 2 UltraServersと比べて、3.9倍のメモリ帯域幅、4.4倍の演算パフォーマンス、4倍以上のエネルギー効率で推論の高速化が達成されたという。
現状、Amazon Bedrockの推論のほとんどはTrainium上で実行されており、AnthropicのモデルはTrainiumのクラスターである「Project Rainier」で実現されているという。Trainiumの配置数も100万を超えることが発表された。
次世代のTrainiumであるAWS Trainium 4の開発意向も発表された。現行のTrainium 3の6倍(FP4)の高速化、4倍のメモリ帯域、2倍のキャパシティを目指すという。チップ間インターリンクであるNVIDIA NVLink Fusionをサポートし、NVIDIA MGXラックとシームレスに統合されている。GPUとTrainiumを統合したコスト効果の高いラックスケールのAIインフラが実現できるという。
AWS re:Invent 2025の現地レポートは引き続きお送りする。













