このページの本文へ

ビルダーのニーズをくまなく網羅するAWSのサービスを総まとめ

いまもっとも重要なテネット「柔軟性」 AWSが提供する選択肢とは?

2021年05月13日 13時00分更新

文● 大谷イビサ 編集●ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

 AWS Summit Onlineの2日目、基調講演は昨年末に開催されたre:Invent 2020のオーバーラップと国内のユーザー事例が中心となった。テーマはコンピューティングとデータの柔軟性。クラウド黎明期に定められたいくつかのテネット(信条)の中で、いまもっとも注目すべき要素だ。

AWS インフラ&サポート SVP ピーター・デサントス氏

ユーザーに柔軟性を提供するAWSのコンピューティング

 登壇したピーター・デサントス氏は、設計思想からAWSインフラを語るAWS インフラ&サポート担当のSVP。最初のトピックはAmazon EC2を立ち上げた2006年に決めた「テネッツ(TENETS)」だ。

 テネッツとは意思決定のために必要な信条を指ており、EC2に関してはセキュリティ、信頼性、弾力性、柔軟性、コスト、使いやすさという6つが定義されているという。今回デサントス氏は、このうち「柔軟性」にフォーカスする。ここで言う柔軟性とは、特定の製品にロックインされず、ユーザーがさまざまな選択肢を持つ状態を指す。「開発者は自分のアプリケーションにもっともあうツールを柔軟に選択したいと考えている。AWSクラウドでは、お客さまのニーズの変化に合わせて、柔軟に構築することができる」とデサントス氏はアピールする。

 まずコンピューティングに関しては、従来型のインスタンスのみならず、マイクロサービスに最適なコンテナ、イベント駆動型のサーバーレスといった選択肢を提供する。EC2インスタンスに関しては、最速の400GB/sのP4d、24TBメモリを搭載するハイメモリインスタンス、336TBのストレージを持つD3en、グラフィック向けのG4adなどの最新インスタンスを紹介しつつ、さまざまなOSを選択できる柔軟性をアピールした。

 ハードウェアにおける最新動向としては、仮想化の処理をハードウェア処理できるNitroチップを紹介した。EC2で用いられているこのNitroチップは、Mac miniをそのままマウントしたMacインスタンスでも採用されている。また、自社開発したARMベースの汎用プロセッサーであるGravitonも第2世代に突入しており、さまざまなワークロードで最適なインスタンスを利用できるようになっている。さらに機械学習(ML)の学習を効率化するためのInferentiaやTrainiumなどのカスタムチップもインスタンスに搭載済みだ。

仮想化機能を搭載したNitroチップ

 コンテナに関しては、クラウドホスト型のコンテナの80%がAWS上で動作しているとアピール。フルマネージドのkubernetesプラットフォームである「Amazon EKS」、AWS APIベースのオーケストレーションを実現する「Amazon ECS」、クラスター管理が不要な「AWS Fargate」を提供しており、高い成長を遂げているという。

 さらにサーバーやコンテナの管理を不要とするイベント駆動型のLambdaもすでに安定した人気を誇っている。「2020年にAmazonで構築されたアプリケーションのうち、半分はLambdaを採用している」とデサントス氏は語る。最新のLambdaは最大10GB、6コア、15分の利用が可能で、課金はミリ秒単位となっている。さらに、Lambdaと連携するAWSサービスとイベントはすでに140種類にのぼっており、API GatewayやEventBridge、Step Functionなどを使うと、高度なサーバーレスアプリケーションが容易に構築できると。「アプリケーションとコードに完全に集中し、その他の負荷はすべてAWSにお任せください」とデサントス氏は語る。

データを組織で共有することの重要さ、それを実現するための柔軟性

 続いてデータにおける柔軟性をアピールしたのが、BIやアナリスティックのバイスプレジデントであるドロシー・リー氏だ。「データからより高い価値を得るために、柔軟性がかつてないほど重要になってきていると確信しています」とリー氏は指摘する。

AWS BI&アナリスティック担当 VP ドロシー・リー氏

 かつてないほどデータの量や種類が増え、ビジネス戦略上、データを重視する企業は増えている。リー氏は、こうした多様な情報を柔軟に管理できるプラットフォームこそが、データ駆動型の組織にとっては非常に重要だと指摘する。そして、その例として数年前に経験してきたAmazon Kindleの事例を披露する。

 当時、Amazon Kindleの部隊はモバイルアプリにおける顧客とのエンゲージメント(関係構築)について模索しており、チームからは「サインアップしたら、本を無料で提供する」というアイデアが出たという。「恐ろしいアイデアです。Kindleアプリはすでに無料なので、誰かが本を買わないと利益になりませんから」とリー氏は語る。

 しかし、データ駆動型のAmazonは実験で実証することにした。この結果「無料で本を提供されたユーザーはその後、熱心なKindleユーザーになった」が、「サンプルのみの人は時間の経過とともにKindleを使わなくなった」という傾向が明らかになった。そして、このデータをAmazon全体に共有したことで、Amazonプライムでより大規模な本の無料提供が実現したという。「データを収集して、共有するプロセスを設定すると、ビジネス価値を高めることができます」とリー氏は指摘する。そして、そのためにはデータを安全に簡単に利用できる「民主化」とデータを活用するための機械学習や分析が必要になるという。

データ駆動型組織になるための3つのフェーズ

 こうしたデータ駆動型の組織になるためには、3つのフェーズがある。

 第一段階ではオンプレのデータベースやストレージソリューションからクラウドに移行することだ。レガシーなデータインフラは運用負荷やかかるコストも大きく、差別化に結びつかない負荷の重い作業が多い。また、レガシーインフラを組み合わせられる商用データベースは高価で、独占的で、制裁的なライセンス条項があると指摘。とはいえ、OSSのDBでは商用DBレベルの性能は得られないというのが課題となっている。

 こうしたユーザーのために提供しているのがAmazon RDSやAmazon Auroraになる。「Auroraの速度は標準のMySQL DDよりも最大で5倍、スループットは標準PostgreSQLより3倍速い。商用データベースの安全性、可用性、信頼性を10分の1のコストで実現している」とリー氏はアピールする。

 もちろん、これらリレーショナルDBではうまく動作しないワークロードも数多く存在する。コストはかかり、不必要なオーバーヘッドでパフォーマンスは低下してしまう。そのため、AWSは7つの専用データベースを構築し、用途にあわせてユーザーが選択できるようにした。「Lyftのように膨大な位置情報と運転手の情報を組み合わせている場合、RDBは不要です。必要なのは高スループットで低レイテンシーなキーバリューストアのDynamoDBです」とリー氏は語る。

 また、AWSではこうしたさまざまなデータストアへのマイグレーションを実現するためのツールやノウハウを用意しており、移行パートナーも認定している。また、「Database Freedom」のプログラムでは、商用データベースのロックインと制裁的なライセンス費用を回避するのに最適な選択肢を提供するという。

 第二段階では、「データの開放」が必要になる。アジリティ実現のために、サイロ化した複数のデータをデータレイクに統合し、アナリスティックや機械学習でインサイトを得ることだ。このデータレイクに堅牢で高い可用性を誇るAmazon S3を基盤として採用することで、Amazon AthenaやAmazon EMR、ElasticSearch、Kinesis、Redshiftなどさまざまなサービスを活用できるという。

 そして第三段階ではいよいよ機械学習の活用に進める。リー氏は、「機械学習なしでは組織は生き残れないと確信しています」と指摘。ドミノピザ、ロシュ、NFLなどがMLを活用することで、それぞれの分野で競争優位性を生み出していると説明した。

 AWSでは機械学習のスタックを専門家向けのインフラ、データサイエンティストや開発者向けの開発環境(SageMaker)、音声認識や翻訳などAIサービスという3つのレイヤーに分離しており、これらを柔軟に選択できるようにしている。また、ビジネス上の問題を解決するための検索ツールKindraのほか、MLをフル活用したコンタクトセンター向けサービスのAmazon Connect、製造業向けのモニタリングサービスであるAmazon Lookout for Metrics、医療向けのデータレイクであるAmazon HealthLakeなど業界向けのソリューションを展開している。

AWSの機械学習サービスのスタック

ワークロードを動かすロケーションの柔軟性

 最後、壇上に戻ってきたデサントス氏は、ワークロードを動かす柔軟性として、いわゆる「ハイブリッドソリューション」について紹介する。

 まず紹介したのはVMware Cloud on AWS。前述したNitroベースのベアメタルインスタンス上で、ESXiハイパーバイザーを含めたVMwareのSDDC(Software Defined Datacenter)のスタックを実行できるので、オンプレミスのシステムをクラウドに拡張できる。また、Amazon ECS Anywhere/Amazon EKS Anywhereを用いると、コンテナベースのワークロードをオンプレミス上で動かすことが可能になる。

 現在、AWSは複数の独立したAZで構成されるリージョンを全世界で25箇所を展開しており、近々リージョンは5つ追加される。そして、ワークロードの実行場所に関する柔軟性をさらに高めるため作られたのが、人口が密集した都市圏にサービスを配置するAWS Local Zonesになる。遅延にセンシティブなメディアコンテンツ、リアルタイムゲーム、機械学習などのワークロードをエンドユーザーの近くで実行できる。現在ではロサンゼルス、ボストン、ヒューストン、マイアミで展開しており、今年中に12箇所が増えるという。

 また、AWSのインフラをユーザーサイトにホストするのはAWS Outpostsになる。「15年にわたる大規模インフラストラクチャの運営ノウハウを、革新的なNitroチップとともに、お客さまのデータセンターにお届けします」とデサントス氏は語る。導入や設置、メンテナンスもすべて任せることができ、AWSと同じAPIや管理手法が利用できる。昨年1U・2Uのラックマウント型モデルも発表されている。

ラックマウント型も増えたAWS Outposts

 さらに、コネクテッドカーやスマートファクトリー、AR/VRなどの超遅延アプリにおいて、5Gの能力を最大限に活用すべく、通信事業者の基地局にAWSインフラを設置するのがAWS Wavelengthになる。現在、世界10箇所でサービスが展開されており、日本ではKDDIとのパートナーシップを組んで東京と大阪においてサービスインがスタートした。

 最後に紹介したのは、オフラインや接続性のプアな環境での利用を前提とした「AWS Snowball」のアプライアンス。エクサバイト単位のデータをAWSクラウドの内外に転送できるほか、コンピューティング機能が組み込まれているためエッジでの分析や処理が可能になる。

 さまざまなロケーションの柔軟性を披露したデサントス氏は、「われわれは将来的にはコンピューティングの大部分がクラウドに行き着くだろうと思い続けている。コスト、アジリティ、機能性、利点が圧倒的に優れている。しかし、ロケーションも重要だ」と語る。クラウドが当たり前になってきたからこそ、レガシーアプリケーションやデータセンターでもクラウドと同じ体験を実現できることが重要。これこそハイブリッドソリューションだという。デサントス氏は、「アプリケーションがもっとも合理的な場所で実行できるように努める」と語り、舞台を降りた。

■関連サイト

カテゴリートップへ

  • 角川アスキー総合研究所
  • アスキーカード