このページの本文へ

HPC市場から金融、クラウド、データセンターへ

56GbpsのInfiniBand FDRに一番乗りしたメラノックスの鼻息

2011年09月13日 06時00分更新

文● 大谷イビサ/TECH.ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

9月12日、メラノックステクノロジーズ(以下、メラノックス)は、新製品や国内戦略の発表会を開催した。InfiniBandというHPC向けのインターコネクトにフォーカスしてきた同社だが、データセンターやクラウドなど適用領域をより拡げていくという。

InifiniBandの王者がいち早いFDR対応

 発表会においてメラノックス ワールドワイドセールス ヴァイスプレジデントのマーク・サルツブルグ氏は、会社と製品の概要を説明した。

 

メラノックス ワールドワイドセールス ヴァイスプレジデントのマーク・サルツブルグ氏

 メラノックスはInfiniBandやEthernetなどのインターコネクトを提供するイスラエルのベンダーで、HPC(High Performance Computing)分野で高いシェアを誇る。「世界のスーパーコンピュータのトップ10のうち、5台に使われている」(サルツブルグ氏)という現状だという。この理由としては、他社のソリューションや既存のEthernetに比べ、高い伝送効率を実現しているからだという。

 

トップ100でも42%のシェアを誇るという

 製品としては、InfiniBand対応のアダプタやスイッチが主力で、低遅延な10/40Gbpsも同じハードウェアでカバーするのが特徴。チップや「ConnectX」ブランドのアダプタ、「SX」ブランドのスイッチ、管理ソフトウェア、ケーブルに至るまで包括的なポートフォリオを持ち、幅広いOEMパートナーと提携している。新たに投入された「ConnectX-3 Virtual Protocol Interconnect (VPI) アダプタカード」と「SXスイッチ」では、PCI Express 3.0バスとの組み合わせで最大56Gbpsのスループットを実現するInifiniBand FDR(Fourteen Data Rate)にいち早く対応する。

 

HPC以外の市場を積極的に開拓

 続いて、日本法人の津村英樹氏が国内での展開を説明した。まずOEMでは大手サーバーのベンダーすべてが扱っているほか、ディストリビュータ2社、認定リセラー6社などを介した間接販売を行なっているという。

 

メラノックステクノロジージャパン ジェネラルマネージャ 津村英樹氏

 また、メラノックスでは、既存のHPCのためにユニークな機能をいくつか提供している。たとえば、エヌビディアとの共同開発によるGPU Directでは、OS側でいったんデータを書き直す必要がなく、直接InfiniBandアダプタとnVidia GPUが直接やりとりできるという。

 

NVIDIA GPU向けのGPU Directのソリューション

 また、今まで同社はHPCという市場にフォーカスしてきたが、きわめて低い遅延を必要とする金融システム、サーバーとストレージを高速・低遅延でつなぐクラウド向けシステムなどのHPC以外の市場を開拓していくという。エンタープライズやデータセンターにおいても、「サーバー統合によりI/Oのボトルネックが大きな問題になっている。そのため、広帯域・低遅延なInfiniBandは大きな注目を集めている」(津村氏)とニーズの高さをアピールした。

 

 56Gbps InifiniBandと40Gbps Ethernet対応の製品は、現在βテスト中で、第4四半期に出荷を開始するという。

カテゴリートップへ