このページの本文へ

さくらの熱量チャレンジ 第13回

新しいワークロードに向け、ハードウェア回帰の波は来るのか?

クラウド全盛期にキラリと光る専用サーバーの価値、インテルとさくらが語った

2017年02月28日 07時00分更新

文● 大谷イビサ/TECH.ASCII.jp 写真●曽根田元

  • この記事をはてなブックマークに追加
  • 本文印刷

ワークロードに最適なリソースを柔軟に配分できるSDIと次世代NAND

大谷:さて、こうしたトレンドの中、ハードウェアのテクノロジーも進化していきますよね。インテルは今後どういったテクノロジーを導入していくのでしょうか?

土屋:まず全体として取り組んでいるのは、いわゆるSDI(Software Defined Infrastructure)です。SDIは簡単に言えば、CPUとメモリ、ネットワーク、ストレージ、セキュリティなどのリソースをプール化して、ワークロードにあわせて再配置していこうというコンセプトです。

従来、それらはすべて別物で、ハードウェア自体はもとより、ソフトウェアや運用も違っていました。でも、インテルの見方だと、5年くらい前にはハードウェアがほぼインテルアーキテクチャーに統合されてきました。同時にSDN/NFVの波がやってきて、ネットワークの機能もソフトウェア化され、さらにストレージもSoftware-Defined化され、サーバーとストレージが同じハードウェアに同居するハイパーコンバージドインフラ(HCI)のような製品も台頭してきました。極論すれば、Xeonプロセッサーで、データセンターのほとんどはまかなえる時代になってきたんです。

「Xeonプロセッサーでデータセンターのほとんどはまかなえるようになってきた」(土屋氏)

大谷:最近のXeonプロセッサーは本当にいろいろな機能が付いてますよね。

土屋:今では仮想マシン間のネットワークのスループットを上げるIntel DPDKも広く使われていますし、ハードウェアと同じ機能・性能を実現するソフトウェアRAID、鍵やデータの暗号化、圧縮などのセキュリティ機能とかも、Xeon プロセッサー上に載せています。従来、アプライアンスが提供してきたような機能をハードウェアに実装し、アプリケーションにインパクトを与えないようにしてきたんです。いま必要とされているワークロードは、すべてさばけるようにするというのがXeon プロセッサーの基本的な戦略です。

大谷:直近でいうと、次世代NAND(不揮発性メモリ)についても興味あります。

土屋:インテルの考えだと、NoSQL DBやHadoopに関してはノード数を増やしてスケールアウトさせていく方向性ですが、OLTP系のDBに関してはやはりスケールアップのアプローチになります。そこで即物的に効いて来るのがNVMe。今までと比較にならないくらいの性能と容量の製品が今後出てきますが、これを使えばI/Oの課題はかなり解消できるはずなんです。

インテルのNVMeは単純にメモリ素子を速くするということだけではなく、OSSを意識したファームウェアを開発しているのが特徴的です。インテルのエンジニアがOSS側の調整とファームウェアのパラメーターチューニングを手がけています。その他、Cephにも注力していて、NVMeベースのブロックストレージも作ろうとしていますね。

加藤:単に高速なメモリを出すだけではなく、ソフトウェアとの相性も考えて、開発しているんですね。

土屋:やはり導入したら、データベースの性能が倍になるくらいのインパクトがないと、NVMeの市場も拡がらないので、そういう努力はしていますね。個人的には、ユーザーの多いMySQLなどでNVMeを使えば、本当に世界が変わるくらいのことを次世代のOptane メモリーでは期待しています。物理サーバーならではのスケールアップ感をドンっと出していきたいですね。

加藤:MySQLってスケールアウトするとレプリケーションの管理が面倒なので、やはりスケールアップしてくれるのが理想ですよね。

データセンターを刷新するRSDとOmni-Path

大谷:数年来推進しているRSD(Rack Scale Design)についても教えてください。

土屋:技術的には、CPUやメモリ、I/Oなどのリソースのプール化をマルチベンダーでやれるようにして、進化したテレメトリを使って、クラウドのオーケストレーターからハードウェアのリソースを配置できるようにするものです。たとえば、PaaSみたいなものを考えていただくと、アプリケーションがスケールするときに、ハードウェアの属性を加味して、リソースも追従できるみたいな世界を描いています。

こちらは、まだ発展途上の技術ですが、NVMeのような高性能なSSDを、遠隔にあるサーバーからインテルのOmni-Path アーキテクチャー(以下、Omni-Path)経由で利用するみたいなこともできる予定です。

加藤:事業者として見ると、RSDはサービスの柔軟性が上がるので魅力的です。今まではサーバー単位で貸さざるを得なかったのですが、これが巨大なCPUの塊、メモリの塊、ストレージの塊として、お客様のワークロードに合わせて貸せるようなるのではという期待がありますね。

大谷:石狩データセンターとかだと、DC in DCの形態でサーバールームの1区画を事業者に貸したりしているじゃないですか。でも、今まではそういった区画単位貸しか、ラックやサーバー単位貸ししかなくて、その中間がなかったと思うんです。RSDが実用化されたら、その中間にあたるような、ハウジングでも、専用サーバーでもないような新しいサービスが生まれるんじゃないかと期待しますね。

加藤:専用サーバーでありながら、リソースをうまく切りわけて提供するようなサービスができますね。

土屋:RSDを使ったベアメタルっぽいサービスって面白そうなので、私も調べてさくらさんと議論を詰めたいです。さくらさんにいろいろ提案して、日本ならではの面白いモノ作りたいですね。

面白いのは、RSDがOCP(Open Compute Project)と歩調を合わせて進めているところです。今後は、OCP上でも、テレメトリやオーケストレーションの部分は互換性を持たせていくという計画です。その中でOmni-Pathの話も入ってくるのではないかと思います。

大谷:引き続き、そのOmni-Pathについてもお聞きしたいのですが。

土屋:Omni-PathはもともとHPCのファブリック向けに作られた独自のプロトコルで、Cray社と Qlogic社から買収で獲得したファブリック技術を基に開発されたものです。インテルとしてはXeonプロセッサーから直接インターフェイスを出すことによって、可能な限りレイテンシとコストを下げるのが狙いです。

加藤:対InfiniBandで考えると、Omni-Pathの魅力はコストですね。かなり競争力のある価格で出てきたので。帯域、レイテンシも問題ないですし、管理性の面でもよさそうと思ってます。

土屋:Omni-Pathも基本はHPC向けに提供しているプロトコルなのですが、データセンター内のイースト-ウェストトラフィックの伝送にも有効なのではという声も上がっていて、一部ではそういう検討しています。

大谷:データセンターファブリックを構成するネットワークの代わりにOmni-Pathを用いる動きもあるわけですね。

加藤:今、土屋さんの話を聞いていて、データセンターで利用するのはありだなと思いました。データセンター全体のパフォーマンスを考えると、今後CPUやメモリ、I/Oを近づけるインターコネクトの重要性は今後増してきますので、Omni-Pathでのファブリック化が進むと面白いと思います。

土屋:PoCのレベルではSDNとNFVを活用して、データセンター内のイースト-ウェストのトラフィックすべてを集めて、仮想ファイアウォールを経由させるようなことはやっているんです。これなら物理的な配線をやり直さなくても、柔軟にサービスを構成できます。

カテゴリートップへ

この連載の記事

灯油タンクで残量検知を実現!北海道の生活を守るIoTとは【熱量IoT】#3

動画一覧はこちら!