このページの本文へ

前へ 1 2 次へ

ロードマップでわかる!当世プロセッサー事情 第286回

スーパーコンピューターの系譜 核兵器の模擬実験のために生まれたASCI

2015年01月12日 12時00分更新

文● 大原雄介(http://www.yusuke-ohara.com/

  • この記事をはてなブックマークに追加
  • 本文印刷

 スーパーコンピューターの系譜、今回からASCI(ASCIIではない)の話をしていこう。ASCIは、Accelerated Strategic Computing Initiativeの略で、「加速的戦略的コンピューティング・イニシアティブ」なる謎の訳語もある。

 現在はASC(Advanced Simulation and Computing program:先進シミュレーションおよびコンピューティング計画)という名称に変わっているが、システム名にASCIを冠しているものが多いこともあってか、いまだにASCIの方が通りがよかったりする。

ASCI Blue Mountain

核実験のシミュレーションのために生まれた
ASCI

 このASCIが成立した背景をまず解説しよう。話は1995年11月にさかのぼる。クリントン大統領はCTBT(Comprehensive Nuclear Test Ban Treaty:包括的核実験禁止条約)を批准する方針を明らかにする。

 クリントン大統領は1996年9月にこれに署名するが、上院はそもそも批准に関する審議を拒否、最終的に1999年10月に上院で審議に入る(ここに至るまでも随分紆余曲折があった)ものの批准は否決される。

 さらに続くブッシュ政権は、核爆発を伴わない未臨界核爆発実験を実施したし、CTBTそのものがまだすべての核保有国の批准を集めておらず未発効状態だったのだが、この歴史そのものは本題ではないのでここでは置いておく。

 話を1995年11月に戻すと、米政府としてはトップがCTBT批准の方針を明らかにした以上、それが実現した場合に備える必要がある。

 具体的には、SSMP(Stockpile Stewardship and Management Program:備蓄弾頭維持管理計画、Managementを抜いたSSP:Stockpile Stewardship Programという場合もある)を、核実験なしでどう遂行するかを立案する必要が出てきた。

 核兵器を維持する際に、その安全性あるいは信頼性を確認するというのは核兵器の性格上必要とされ、これまでは定期的に核実験を行なう形で実施してきたが、CTBTはこうした核実験そのものを禁止するわけなので、別の手段が必要になる。

 そこで、実際の核実験を行なう代わりにコンピューターシミュレーションでこれを実施しよう、というアイディアが出てきた。

 単純に考えても色々問題は多い。基本的なところで、シミュレーションを行なう場合、精度を担保するためにはどこかで実際の結果と比較する必要があるので、核実験を即座に中止してしまうと、この精度の担保が非常に難しくなる。

 実際米国でもこれも関しては色々紛糾したのだが、それも本題ではないのでここでは割愛する。重要なのはCTBT批准により、精度の高い核実験のシミュレーションが可能になるシステムが必要になった、ということだ。これを受けてDoE(Department of Energy:米エネルギー省)が策定したのがASCIである。

 つまりASCIはSSMPの一部ということになる。実際にASCIはDoE傘下にあるローレンス・リバモア国立研究所、ロスアラモス国立研究所、サンディア国立研究所という3つの研究所が一体となって開発を進めるという方針をとり、これにカリフォルニア工科/シカゴ/イリノイ/スタンフォード/ユタという5つの大学が協力する形をとっている。

 1996年9月に発表されたASCIのプログラムプランによれば、1997年度におけるASCIへの支出は1億2160万ドルが計上されている。

1997年度のASCIへの支出
アプリケーション開発 5490万ドル
問題解決環境の構築 2350万ドル
プラットフォーム開発 3370万ドル
戦略アライアンス関係 610万ドル
関連支出 340万ドル

 内訳は表のとおりで、莫大とは言えないものの、少なくない金額がこれに投じられているのがわかる。

 そのASCIであるが、主たる目的は「2010年までに核兵器の性能評価やリニューアルプロセス分析、アクシデント分析や検証を可能にする、完全かつ高性能な物理シミュレーションコードの生成」である。

 加えて、米国のコンピューター業界に対して、こうしたコードを実行するために必要となる、より高性能/高容量なハイエンドスーパーコンピューターの開発を促すとともに、これらを実現するための環境作りも重要な課題として挙げられている。

 当たり前といえば当たり前であるが、当時の核実験のシミュレーションはそれほど高性能/高精度なものではなかったので、まずこれをなんとかする必要があり、次にそれを動かすためのプラットフォーム開発、最後に環境整備となるわけで、1997年の予算の半分近くがアプリケーション開発に当てられるのも当然といえる。

 そのアプリケーション開発は今回の本題ではないので置いておくとして、ハードウェアのほうである。下の画像はこのASCI Program Planで示された、2002年付近までのロードマップである。

1996年9月時点における、アプリケーション、システム、インフラに関してのロードマップ。Computersの欄の縦軸は対数である

 最上段がアプリケーションで、それぞれの時期にどんなアプリケーションが準備可能になっている、あるいは開発に着手しているべきかを示したもの、最下段がインフラで、それぞれどんなインフラが利用可能になっているべきかを示したものだ。

 間に挟まるのが、スーパーコンピューターの性能で、大雑把に言えば1996年に比べて2000年に10倍、2003年頃には100倍にしようというものだ。右下にあるように、従来のコンピューターの性能向上を延長していくと、2002年頃に1012Ops(1T Ops)、1014Ops(100T Ops)に到達するのは2025年頃になる。

 しかし、この程度の性能ではアプリケーションには不十分なので、この性能改善を大幅に加速しよう、という目論見である。

 もちろんCPUの性能だけを引き上げてもバランスが悪いので、メモリーやストレージ、I/Oやネットワークなどすべてのものも同時に引き上げる必要があるとしている。

主要なコンポーネントの性能は、1996年~2003年の間に1000倍に引き上げ、この結果としてアプリケーション性能を10万倍にする、という目標であるが、なんとなくこの時点で釈然としないものがある。どうやっても1000倍にしかならない気がするのは筆者だけだろうか?

→次のページヘ続く (複数のシステムが存在するASCI

前へ 1 2 次へ

カテゴリートップへ

この連載の記事

注目ニュース

ASCII倶楽部

プレミアムPC試用レポート

ピックアップ

ASCII.jp RSS2.0 配信中

ASCII.jpメール デジタルMac/iPodマガジン