このページの本文へ

Hyper-V 3.0向けの“SMB Direct”もサポート済み

CPUに見合う性能を実現!メラノックスのVMware用ドライバ

2012年09月14日 09時00分更新

文● 渡邊利和

  • この記事をはてなブックマークに追加
  • 本文印刷

9月13日、メラノックステクノロジーズジャパンは、同社の中核製品である「FDR 56Gbps InfiniBand」および「10/40Gbps Ethernet」のVMware ESXi 5.1用SR-IOV(Single Root I/O Virtualization)ドライバの提供を開始することを発表した。今年11月から利用可能となる予定。

仮想サーバーの“加速”を目指す

 メラノックスは、サーバー/ストレージを対象にInfiniBandとEthernetのエンドツーエンド接続ソリューションを提供する。SR-IOVは、ハイパーバイザーからI/Oハードウェア側に処理をオフロードすることでパフォーマンスの向上を図る技術で、VMwareでは最新のvSphere 5.1からサポートされることになった。メラノックスはいち早くこの最新仕様に対応したことになる。

SR-IOVの概要

 同社の概要を説明した米メラノックステクノロジーズのワールドワイドセールス担当バイスプレジデントのマーク・ザルツバーグ氏はプロセッサのコア数が増加し、メモリ帯域も拡大しているのに対して一般的なネットワークI/Oはこの数年でようやくEthernetが1Gbpsから10Gbpsになった程度であり、I/Oが処理性能のボトルネックになっていると指摘する。同社ではVPI(Virtual Protocol Interconnect)技術に基づいて同一のチップでInfiniBandと高速Ethernetの両方をサポートしており、またチップからボードまでを一貫して設計/製造する“垂直統合型”の強みを活かしてバンド幅の拡大とレイテンシの短縮に取り組んでいるという。

米メラノックステクノロジーズ ワールドワイドセールス担当バイスプレジデント マーク・ザルツバーグ氏

 同社ではサーバ仮想化やビッグデータ処理など、現在のコンピューティングはより一層I/Oパフォーマンスの高いネットワークを必要としていると認識しており、InfiniBandおよび高速Ethernetがサーバ間やサーバ/ストレージ間の接続の主流になると見込んでいる。

 なお、メラノックステクノロジーズジャパンのジェネラルマネージャの津村 英樹氏は今回発表のSR-IOVドライバについて、「VMFS上で5GB/s、19万IOPSで、各ゲストOSごとに70万IOPS」という性能が確認できているという。同社のソリューションでは仮想化環境向けのアクセラレーション技術の実装に注力しており、Microsoft Windows Server 2012のHyper-V 3.0向けに実装された“SMB Direct”をすでにサポートしているほか、オープンソースのKVMなどに対しても高速性を提供できるとしている。

カテゴリートップへ

ピックアップ