このページの本文へ

10年目のAuroraに新版登場 S3は表形式やメタデータ用のバケット登場

AWSの再構築が始まった “既存の”ビルディングブロックはどう変わったか?

2024年12月04日 18時00分更新

文● 大谷イビサ 編集●ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

 12月2日から米国ラスベガスで開催されているAWS re:Invent 2024の基調講演に登壇したのはAmazon Web Services(AWS) CEOのマット・ガーマン氏。2時間半に渡って行なわれた講演は、多彩なゲストとともに、新サービスや生成AIに関しての取り組みを披露。前半ではコンピュート、ストレージ、データベースという“既存の”ビルディングブロックを強化する新サービスについて説明した。

AWS CEO マット・ガーマン氏

CEOとしてre:Invent初登壇となったガーマン氏 まずコミュニティに感謝

 AWS re:InventはAWS最大のフラグシップイベントで、毎年ラスベガスで開催される。会期中の5日間は基調講演に加え、1900ものセッション、EXPOと呼ばれる展示会場、さまざまなイベントが催される。昨年は参加者も5万人を超えたが、今回は6万人を超える見込みで、特に基調講演の前後は会場周辺も大混雑となった。

 さて、13回目となる今年の基調講演にCEOとして初めて登壇したマット・ガーマン氏。CEOとして登壇するのは初めてだが、re:Inventは2012年から毎回参加しており、登壇の経験はあるという。ガーマン氏は、「このイベントが始まって、13年が経ち、多くのことが変わった。でも、このイベントが特別なのは、情熱的なAWSコミュニティをまとめ、お互いに学ぶことだ」と語り、開発者が学ぶイベントというコンセプトを改めて提示。その原動力となるビルダー、AWSコミュニティ、そして活動をリードする「AWS HERO」に対して熱い謝辞を示した。

 2006年、ガーマン氏がAWSに入社したとき、最初に担当したのはスタートアップだったこともあり、スタートアップには強い思い入れがあるようだ。現在は生成AIが登場し、ディスラプターとしてのスタートアップの破壊力はますます大きくなっている。こうしたスタートアップに対して、2025年は10億ドルをクレジットとして提供することを表明した。

ガーマン氏が最初に手がけたのはスタートアップ支援

 ガーマン氏は、AWSのカルチャーを改めて振り返り、「イノベーションは顧客の声から始めること」「システムをコンポーネントに分けた『ビルディングブロック』の概念」「セキュリティを最優先事項にすること」などを挙げた。その上で、ビルディングブロックを構成するコンピュート、ストレージ、データベースのサービス概要とアップデートを説明した。

カスタムシリコンの強みを活かすコンピュート Inferentiaインスタンス強化

 ビルディングブロックの最初はコンピュートの紹介。AWS初期から提供しているEC2インスタンスはワークロードにあわせ、プロセッサー、メモリ、ストレージなどで多彩な構成を用意している。現在はストレージが最大336TB(D3en)、メモリが最大32TiB(U7i)、ネットワークが最大3.2Tbpsになる。インテルやAMD、NVIDIAなどのテクノロジーをクラウドに持ち込み、Macインスタンスを立ち上げることも可能だ。GPUワークロードを動作させる環境としても強化を続けており、新たにNVIDIA Blackwellを搭載する「P6インスタンス」が発表された。

 こうした柔軟なサービス提供を可能にしたのは、AWS独自の仮想化基盤であるAWS Nitro Systemだ(関連記事:最強のAIインフラをAWSが披露 シリコンからAIサーバー、ネットワークまで)。独立した専用シリコンを用いることで、ベアメタルの性能と高いセキュリティを実現している。また、オリジナルのARMプロセッサーであるGravitonは性能、コストパフォーマンス、電力効率を高めながら、すでに4世代目に突入。最新のGraviton4では、従来に比べて45%の性能向上を実現している。顧客であるPinterestはGravitonの導入で、47%のコスト削減、62%のカーボンエミッションを実現したという。

 こうしたカスタムチップの実績を活かし、目的特化型のAIチップも開発している。現在AWSは推論用のInferentia、トレーニング用のTrainiumの2種類を自社開発しており、高いコストパフォーマンスでAIの学習を効率的に行なえる。3nmの製造プロセスを初めて導入し、エネルギー効率性40%の向上、2倍の性能を実現する「AWS Trainium3」も来年の後半に投入されるとアナウンスされた。

目的特化型のAIチップ「AWS Inferentia」と「AWS Trainium」

 今回は、最新のTrainium2チップを搭載した生成AIの推論インスタンス「Amazon EC2 Trn2 Instances」がGAとなった。16基のTrainium2チップを搭載し、現行のP5・P5enなどのGPUインスタンスに比べて30~40%高いコストパフォーマンス、最大で20.8ペタフロップスの処理能力が実現する。すでにアドビやDatabricks、クアルコムなどが評価を実施しているという。

アップルが10年に渡るAWSとのパートナーシップを強調

 AI分野におけるさらなる性能向上を目指し、今回は新たに「Amazon EC2 Trn2 UltraServers」も発表された。Trn2インスタンスを専用のインターコネクト「NeuronLink」で接続した集約型のサーバーで、64基のTrainum2チップを搭載。最大で83.2ペタフロップスの処理能力を実現する。

 AWSはAIモデルClaudeを展開しているAnthropicと共同で、Trainium2のウルトラクラスター化を進めている。「Project Rainier」と呼ばれるこのプロジェクトでは、数十万のTrainium2を接続し、現行世代のモデルトレーニングに使われた計算機の5倍以上の演算能力を実現しているという。

 これらAWSのAIサービスを10年以上に渡って使っているのが、アップルだ。ゲストとして登壇したアップル ML&AIシニアディレクターのベノワ・デュパン(Benoit Dupin)氏は、人々の生活を豊かにするためのiPhoneやiPad、Macなどのハードウェア、サービスのため、トレーニングや推論でAWSを活用していると説明。

アップル ML&AIシニアディレクター ベノワ・デュパン(Benoit Dupin)氏

 最近ではGraviton3やInferentia2を活用することで、効率性も40%向上させた。独自LLMを利用したApple Intelligenceの開発においても、AWSを活かすことで、すべてのレイヤーでプライバシーを確保しつつ、イノベーションに結びつけられたと評価した。Trainium2に関しても、50%の開発効率性を実現。「AWSはサービスのエキスパート。ユーザーにとって素晴らしい体験を提供できるのも、AWSの協力のおかげ」とデュパン氏は語った。

表形式データとメタデータに対応したAmazon S3

 続くビルディングブロックはストレージ。AWS最初のサービスとして今も継続的に成長を続けているAmazon S3は、高い性能と耐久性、拡張性、安価なコストを実現するオブジェクトストレージサービス。すでに400兆以上のオブジェクトを処理しており、ペタバイト以上の容量を利用しているユーザーも数千レベルでいるという。

400兆以上のオブジェクトを処理するAmazon S3

 Amazon S3は性能とコストにニーズに合わせて複数のオプションが提供されており、アクセス頻度を元にデータの保存場所をダイナミックに変更するS3 Intelligent Tireingでは40億ドル以上のストレージコストの削減に寄与している。「みなさんは自らのビジネスにフォーカスできる。エクサバイトのデータでも扱える」とガーマン氏。特にAmazon S3の利用で多いのがデータレイクの用途で、100万以上のデータレイクがデータ分析やAIワークロードで用いられているという。

 今回新たに追加されたのが表形式データに対応した「Amazon S3 Tables」。Amazon Iceberg形式での表形式データに最適化されたバケットの導入により、セルフマネージド型のテーブルと比較して、クエリスループットは最大3倍高速に。秒間トランザクションも最大10倍に向上した。

 Amazon S3関連のもう1つの発表が、メタデータに特化した「Amazon S3 Metadata」になる。メタデータとは画像データに埋め込まれた撮影場所や撮影日時、サイズ、フォーマットなどの付随情報。メタデータがあることで、検索が容易になり、素早くデータを発見できる。S3に格納されたオブジェクトに付与されたメタデータも自動的に更新され、タグを利用することで製品のSKU、トランザクションID、コンテンツ評価など、カスタムメタデータも活用できる。

S3のメタデータも自動的に更新される

10年目のAuroraに新版登場 分館環境でも強い一貫性を保証

 3つ目のビルディングブロックはデータベース。マネージド型のデータベースサービスAmazon RDSからスタートしたAWSのデータベースだが、その後はドキュメントDB、キーバリュー、グラフDBなど目的特化型のサービスを増やしている。そして、リレーショナルDBに関しては、クラウド型データベースとして拡張性と性能、セキュリティを高めたAmazon Auroraを投入。AWS最速の成長を誇り、I/Oの最適化、サーバーレス、マルチリージョンなどの特徴を備える。

 10周年を迎えたAmazon Auroraの次世代版が、今回発表されたサーバーレスの分散型SQLデータベースである「Amazon Aurora DSQL」になる。高可用性に加え、「マルチリージョン」「低レイテンシ」「一貫性(コンシステンシー)」「ゼロオペレーション」「SQLセマンティックス」などの要件をあきらめないグローバルスケールのデータベースを謳う。

 Amazon Aurora DSQLの特徴は、分散環境での強い一貫性(コンシステンシー)だ。この強い一貫性とは、あるリージョンの書き込みが必ず他のリージョンにも反映されることを保証する特性を指す。たとえば、158ミリ秒の遅延のあるノースバージニアと東京のリージョン間でアクティブ・アクティブのデータベースを同期する場合、10ステートメントのトランザクションをコミットするためには1.6秒かかってしまう。

 Amazon Aurora DSQLはトランザクションエンジンの改良とグローバルでの時刻同期を取り込むことで、強い一貫性を保証する。また、マルチリージョンにおいても99.999%の可用性を誇り、事実上無限のスケーラビリティを誇るという。前述した10ステートメントでのマルチリージョンの読み書き性能は、競合であるGoogle Spannerと比べて4倍になるというベンチマークもアピールされた。AWSが他社サービスを名指しして、比較ベンチマークを披露するのは珍しい。

Google Spannerより4倍高い性能を実現した

 また、Amazon DynamoDB Global tablesでは高可用性、事実上無制限のスケーラビリティ、インフラ管理不要、1桁ミリ秒の遅延といったメリットに加え、「強い整合性モデル」をサポート。Amazon Aurora DSQLと共通の基盤を用いることで、読み取ったデータがつねに最新であることを保証するという。

 基調講演の冒頭1時間は、AWSのサービスとカルチャーを踏まえつつ、既存のビルディングブロックの強化について語ったガーマン氏。生成AI以前のre:Inventの基調講演に戻ったような印象もあった。しかし、後半ではAIの普及により、ビルディングブロックには新たなコンポーネントが追加されることになる。AWSにとってのチャレンジとも言える、生成AIへの取り組みはレポートの後半でお伝えする。

■関連サイト

カテゴリートップへ

本記事はアフィリエイトプログラムによる収益を得ている場合があります

アクセスランキング

  1. 1位

    トピックス

    “持たない家電”ランキング、もはや定番のアレがやっぱり1位なような

  2. 2位

    トピックス

    思い切った慶應義塾 全教職員にNotion導入で168年分の知的資産をAIに食わせるプロジェクトが始動

  3. 3位

    ビジネス

    管理職こそ大事にしないとまずくないか? 約4割が「続けたい、と答えない」現実

  4. 4位

    TECH

    訓練だとわかっていても「緊張で脇汗をかいた」 LINEヤフー、初のランサムウェア訓練からの学び

  5. 5位

    トピックス

    インバウンドの頑張りランキングベスト3は「大分県」「岐阜県」「佐賀県」 努力が光る結果に

  6. 6位

    データセンター

    液冷技術の最先端が集うイノベーションラボ「DRIL」、印西のデータセンターに現わる

  7. 7位

    トピックス

    リモートワークは福利厚生なの? ITエンジニアが本当に欲しい福利厚生第1位となる

  8. 8位

    ビジネス

    ランチ抜きが22%!? 物価高で「水筒・コンビニ控え」が定着する中、なぜか「推し活・美容費」だけは死守するオフィスワーカーたち

  9. 9位

    TECH

    身代金要求攻撃の被害額は「1社平均6.4億円」 それでも6割超が「支払いを否定しきれない」苦境

  10. 10位

    ビジネス

    廃校がAIの心臓部に!? 地方の遊休施設を「AIデータセンター」に生まれ変わらせるハイレゾの挑戦がアツいぞ

集計期間:
2026年04月14日~2026年04月20日
  • 角川アスキー総合研究所