このページの本文へ

エクサスケールのためにはメモリアーキテクチャの見直しが必須

インテルが取り組むエクサスケールへの技術革新

2011年03月07日 07時00分更新

文● 渡邉利和

  • この記事をはてなブックマークに追加
  • 本文印刷

3月4日、インテルは「エクサスケールへの障壁を解消する技術革新」というタイトルで説明会を行ない、ハイパフォーマンスコンピューティングの分野での同社の取り組みについて紹介した。ペタフロップス(PFlops)級のスーパーコンピュータは現実的になってきており、技術的な目標としては次のエクサフロップス、さらに次のゼッタフロップスという単位が語られる段階に入りつつある。

ここでも省電力が課題

 米インテルのインテルシニア・フェロー兼インテル・アーキテクチャー事業本部CTOのスティーブ・パウロスキー氏は、エクサスケールの実現に向けた技術的な取り組みについて紹介した。

米インテルのインテルシニア・フェロー兼インテル・アーキテクチャー事業本部CTOのスティーブ・パウロスキー氏

 ほんの数年前はインテル自身がペタスケールコンピューティングについて語っていたが、また1000倍にスケールアップした形だ。ペタスケールのスーパーコンピュータも、現時点で実稼働可能な状態になっているのはまだ数台程度といわれているのだが、同氏は「現在のペタフロップスシステムは、10年後のクライアント/ハンドヘルド機器と同等の性能へ」とし、パフォーマンスの向上は今後もペースを落とすことなく続いていくという見通しを示した。同氏は、現在のペタフロップス級のシステムでは医療用画像処理やゲノム研究といった用途が考えられる一方、将来の気象シミュレーションなどでは100エクサフロップスからゼッタフロップス級の演算性能が求められるようになるという。

現在のペタフロップスシステムは、10年後のクライアント/ハンドヘルド機器と同等の性能

 一方で、単純計算では現在のペタフロップス級のスーパーコンピュータを1000台集めれば演算性能はエクサフロップス級に達することになるが、同氏はこうしたアプローチは非現実的だとする。それは電力消費量の問題で、このアプローチではエクサフロップス級スーパーコンピュータを1台稼働させるために必要な電力は4GW(ギガワット)にもなってしまうという。そこで、ペタフロップス級スーパーコンピュータに比べて、消費電力の増加は10倍程度に抑えつつ、性能を1000倍に向上させるために「何か劇的な改善が必要」とのこと。

エクサフロップス級スーパーコンピュータを1台稼働させるために必要な電力は4GW(ギガワット)にもなる

メモリアーキテクチャの進展はなぜ必要か?

 こうした大きな目標に向かって、インテルではさまざまな分野での研究開発が進められているが、今回同氏が強調したのはメモリアーキテクチャにも進化が必要だという点だ。同氏は、「データをメモリ間で移動するだけでも電力が消費されている」と指摘した。プロセッサが消費する電力の削減にはこれまでさまざまな取り組みが行なわれ、消費電力量当たりの演算性能は大幅に向上したが、遂にプロセッサ単体での省電力化への取り組みでは限界が見えてきた、という意味に理解することもできるだろう。

DRAMアーキテクチャに再考が必要になる

 同氏はこれまでのDRAMの進化について、「低遅延の実現という点では向上したが、根本的なバンクアーキテクチャに関しては初期の頃からほとんど変わっていない」という。現在のDRAMでは、バイトアドレッシングによって1バイト単位のアクセスが可能になっているが、チップレベルで見れば実際のアクセスは1kバイトのページ単位で実行されている。このため、1回のアクセスで活性化されるページサイズが大きいことで消費電力量が増える結果になっている。また、こうした読み出したデータのうちの一部しか使われないことが多い点も無駄といえる。現在検討されている改良型DRAMでは、ページサイズを大幅に小さくすることで、一回のアクセスで活性化されるページサイズを小さく抑え、無駄なデータ読み出しを回避することで効率化を図るという方向だという。

 電力効率の問題が深刻だとしても、一方でベージサイズを小さくするということは1回のメモリアクセスで読み出せるデータ量が減るということなので、大量のデータの読み出しを行なう場合にはメモリアクセスの回数が増加することを意味する。その点に関して同氏に聞いたところ、確かにアプリケーションによって典型的なデータサイズが異なっており、最適なページサイズを決めるのは簡単なことではないとしつつも、メモリインターフェイスの複雑化を避ける意味でも、ページサイズがダイナミックに変わるようなアプローチを考えているわけではないとの回答だった。ただし、どのようなやり方なのかはともかく、アプリケーションの処理内容に応じてページサイズの最適値は変わってくるので、それを踏まえた調整ができるような方向を考えているという。

 同氏はさらに、光信号による通信(シリコンフォトニクス)やコア数が増大した場合のインターコネクトのアーキテクチャ、ソフトウェアとハードウェアの協調設計など、平行して取り組まれているさまざまな研究について紹介し、エクサスケールコンピューティングの実現に向けた取り組みがインテル社内で精力的に推進されていることを協調したが、同時にこうしたさまざまな取り組みが行なわれているということは、エクサスケールコンピューティングの実現は簡単なことではなく、コンピュータアーキテクチャ全般にわたってさまざまなブレークスルーが起こる必要があるという印象も受けた。

エクサスケールに向けた施策のまとめ

 コンピュータの性能が上がることで、従来不可能だった演算処理が実現できるようになり、そのことがさらに高い演算処理性能を要求する新しいアプリケーションを生み出していく、という繰り返しでコンピューターの進化が推進されてきたわけだが、少なくともアプリケーションの側ではこれまでの1000倍、さらに1000倍といった途方もない演算処理性能を必要とする処理がすでに想定されている状態だ。後はハードウェアの進化を待つばかり、とでもいう状況ではあるが、同氏が示した「2017年にはエクサスケールコンピューティングが実現する」という予測が的中するのかどうか、今後の進化を楽しみに待ちたいところだ。

■関連サイト

カテゴリートップへ