このページの本文へ

10年目のAuroraに新版登場 S3は表形式やメタデータ用のバケット登場

AWSの再構築が始まった “既存の”ビルディングブロックはどう変わったか?

2024年12月04日 18時00分更新

文● 大谷イビサ 編集●ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

 12月2日から米国ラスベガスで開催されているAWS re:Invent 2024の基調講演に登壇したのはAmazon Web Services(AWS) CEOのマット・ガーマン氏。2時間半に渡って行なわれた講演は、多彩なゲストとともに、新サービスや生成AIに関しての取り組みを披露。前半ではコンピュート、ストレージ、データベースという“既存の”ビルディングブロックを強化する新サービスについて説明した。

AWS CEO マット・ガーマン氏

CEOとしてre:Invent初登壇となったガーマン氏 まずコミュニティに感謝

 AWS re:InventはAWS最大のフラグシップイベントで、毎年ラスベガスで開催される。会期中の5日間は基調講演に加え、1900ものセッション、EXPOと呼ばれる展示会場、さまざまなイベントが催される。昨年は参加者も5万人を超えたが、今回は6万人を超える見込みで、特に基調講演の前後は会場周辺も大混雑となった。

 さて、13回目となる今年の基調講演にCEOとして初めて登壇したマット・ガーマン氏。CEOとして登壇するのは初めてだが、re:Inventは2012年から毎回参加しており、登壇の経験はあるという。ガーマン氏は、「このイベントが始まって、13年が経ち、多くのことが変わった。でも、このイベントが特別なのは、情熱的なAWSコミュニティをまとめ、お互いに学ぶことだ」と語り、開発者が学ぶイベントというコンセプトを改めて提示。その原動力となるビルダー、AWSコミュニティ、そして活動をリードする「AWS HERO」に対して熱い謝辞を示した。

 2006年、ガーマン氏がAWSに入社したとき、最初に担当したのはスタートアップだったこともあり、スタートアップには強い思い入れがあるようだ。現在は生成AIが登場し、ディスラプターとしてのスタートアップの破壊力はますます大きくなっている。こうしたスタートアップに対して、2025年は10億ドルをクレジットとして提供することを表明した。

ガーマン氏が最初に手がけたのはスタートアップ支援

 ガーマン氏は、AWSのカルチャーを改めて振り返り、「イノベーションは顧客の声から始めること」「システムをコンポーネントに分けた『ビルディングブロック』の概念」「セキュリティを最優先事項にすること」などを挙げた。その上で、ビルディングブロックを構成するコンピュート、ストレージ、データベースのサービス概要とアップデートを説明した。

カスタムシリコンの強みを活かすコンピュート Inferentiaインスタンス強化

 ビルディングブロックの最初はコンピュートの紹介。AWS初期から提供しているEC2インスタンスはワークロードにあわせ、プロセッサー、メモリ、ストレージなどで多彩な構成を用意している。現在はストレージが最大336TB(D3en)、メモリが最大32TiB(U7i)、ネットワークが最大3.2Tbpsになる。インテルやAMD、NVIDIAなどのテクノロジーをクラウドに持ち込み、Macインスタンスを立ち上げることも可能だ。GPUワークロードを動作させる環境としても、強化を続けており、新たにNVIDIA Blackwellを搭載する「P6インスタンス」が発表された。

 こうした柔軟なサービス提供を可能にしたのは、AWS独自の仮想化基盤であるAWS Nitro Systemだ。独立した専用シリコンを用いることで、ベアメタルの性能と高いセキュリティを実現している。また、オリジナルのARMプロセッサーであるGravitonは性能、コストパフォーマンス、電力効率を高めながら、すでに4世代目に突入。最新のGraviton4では、従来に比べて45%の性能向上を実現している。顧客のPinterestはGravitonの導入で、47%のコスト削減、62%のカーボンエミッションを実現した。

 こうしたカスタムチップの実績を活かし、目的特化型のAIチップも開発している。現在AWSは推論用のInferentia、トレーニング用のTrainiumの2種類を自社開発しており、高いコストパフォーマンスでAIの学習を実現できる。3nmの製造プロセスを初めて導入し、エネルギー効率性40%の向上、2倍の性能を実現する「AWS Trainium3」も来年の後半に投入される。

目的特化型のAIチップ「AWS Inferentia」と「AWS Trainium」

 今回は、最新のTrainium2チップを搭載した生成AIの推論インスタンス「Amazon EC2 Trn2 Instances」がGAとなった。16基のTrainium2チップを搭載し、現行のP5・P5enなどのGPUインスタンスに比べて30~40%高いコストパフォーマンス、最大で20.8ペタフロップスの処理能力が実現する。すでにアドビやDatabricks、クアルコムなどが評価を実施しているという。

アップルが10年に渡るAWSとのパートナーシップを強調

 AI分野におけるさらなる性能向上を目指し、今回は新たに「Amazon EC2 Trn2 UltraServers」も発表された。Trn2インスタンスを専用のインターコネクト「NeuronLink」で接続した集約型のサーバーで、64基のTrainum2チップを搭載。最大で83.2ペタフロップスの処理能力を実現する。

 AWSはAIモデルClaudeを展開しているAnthropicと共同で、Trainium2のウルトラクラスター化を進めている。「Project Rainier」と呼ばれるこのプロジェクトでは、数十万のTrainium2を接続し、現行世代のモデルトレーニングに使われた計算機の5倍以上の演算能力を実現しているという。

 これらAWSのAIサービスを10年以上に渡って使っているのが、アップルだ。ゲストとして登壇したアップル ML&AIシニアディレクターのベノワ・デュパン(Benoit Dupin)氏は、人々の生活を豊かにするためのiPhoneやiPad、Macなどのハードウェア、サービスのため、トレーニングや推論でAWSを活用していると説明。

アップル ML&AIシニアディレクター ベノワ・デュパン(Benoit Dupin)氏

 最近ではGraviton3やInferentia2を活用することで、効率性も40%向上させた。独自LLMを利用したApple Intelligenceの開発においても、AWSを活かすことで、すべてのレイヤーでプライバシーを確保しつつ、イノベーションに結びつけられたと評価した。Trainium2に関しても、50%の開発効率性を実現。「AWSはサービスのエキスパート。ユーザーにとって素晴らしい体験を提供できるのも、AWSの協力のおかげ」とデュパン氏は語った。

表形式データとメタデータに対応したAmazon S3

 続くビルディングブロックはストレージ。AWS最初のサービスとして今も継続的に成長を続けているAmazon S3は、高い性能と耐久性、拡張性、安価なコストを実現するオブジェクトストレージサービス。すでに400兆以上のオブジェクトを処理しており、ペタバイト以上の容量を利用しているユーザーも数千レベルでいるという。

400兆以上のオブジェクトを処理するAmazon S3

 Amazon S3は性能とコストにニーズに合わせて複数のオプションが提供されており、アクセス頻度を元にデータの保存場所をダイナミックに変更するS3 Intelligent Tireingでは40億ドル以上のストレージコストの削減に寄与している。「みなさまは自らのビジネスにフォーカスできる。エクサバイトのデータでも扱える。特にAmazon S3の利用で多いのがデータレイクの用途で、100万以上のデータレイクがデータ分析やAIワークロードで用いられているという。

 今回新たに追加されたのが表形式データに対応した「Amazon S3 Tables」。Amazon Iceberg形式での表形式データに最適化されたバケットの導入により、セルフマネージド型のテーブルと比較して、クエリスループットは最大3倍高速に。秒間トランザクションも最大10倍に向上した。

 Amazon S3関連のもう1つの発表が、メタデータに特化した「Amazon S3 Metadata」になる。メタデータとは画像データに埋め込まれた撮影場所や撮影日時、サイズ、フォーマットなどの付随情報。メタデータがあることで、検索が容易になり、素早くデータを発見できる。S3に格納されたオブジェクトに付与されたメタデータも自動的に更新され、タグを利用することで製品のSKU、トランザクションID、コンテンツ評価など、カスタムメタデータも活用できる。

S3のメタデータも自動的に更新される

10年目のAuroraに新版登場 分館環境でも強い一貫性を保証

 3つ目のビルディングブロックはデータベース。マネージド型のデータベースサービスAmazon RDSからスタートしたAWSのデータベースだが、その後はドキュメントDB、キーバリュー、グラフDBなど目的特化型のサービスを増やしている。そして、リレーショナルDBに関しては、クラウド型データベースとして拡張性と性能、セキュリティを高めたAmazon Auroraを投入。AWS最速の成長を誇り、I/Oの最適化、サーバーレス、マルチリージョンなどの特徴を備える。

 10周年を迎えたAmazon Auroraの次世代版が、今回発表されたサーバーレスの分散型SQLデータベースである「Amazon Aurora DSQL」になる。高可用性に加え、「マルチリージョン」「低レイテンシ」「一貫性(コンシステンシー)」「ゼロオペレーション」「SQLセマンティックス」などの要件をあきらめないグローバルスケールのデータベースを謳う。

 Amazon Aurora DSQLの特徴は、分散環境での強い一貫性(コンシステンシー)だ。この強い一貫性とは、あるリージョンの書き込みが必ず他のリージョンにも反映されることを保証する特性。たとえば、158ミリ秒の遅延のあるノースバージニアと東京のリージョン間でアクティブ・アクティブのデータベースを同期する場合、10ステートメントのトランザクションをコミットするためには1.6秒かかってしまう。

 Amazon Aurora DSQLはトランザクションエンジンの改良とグローバルでの時刻同期を取り込むことで、強い一貫性を保証する。また、マルチリージョンにおいても99.999%の可用性を誇り、事実上無限のスケーラビリティを誇るという。前述した10ステートメントでのマルチリージョンの読み書き性能は、競合であるGoogle Spannerと比べて4倍になるというベンチマークもアピールされた。AWSが他社サービスを名指しして、比較ベンチマークを披露するのは珍しい。

Google Spannerより4倍高い性能を実現した

 また、Amazon DynamoDB Global tablesでは高可用性、事実上無制限のスケーラビリティ、インフラ管理不要、1桁ミリ秒の遅延といったメリットに加え、「強い整合性モデル」をサポート。Amazon Aurora DSQLと共通の基盤を用いることで、読み取ったデータがつねに最新であることを保証するという。

 基調講演の冒頭1時間は、AWSのサービスとカルチャーを踏まえつつ、既存のビルディングブロックの強化について語ったガーマン氏。生成AI以前のre:Inventの基調講演に戻ったような印象もあった。しかし、後半ではAIの普及により、ビルディングブロックには新たなコンポーネントが追加されることになる。AWSにとってのチャレンジとも言える、生成AIへの取り組みはレポートの後半でお伝えする。

■関連サイト

カテゴリートップへ

  • 角川アスキー総合研究所
  • アスキーカード