このページの本文へ

ロードマップでわかる!当世プロセッサー事情 第100回

Direct RDRAMはなぜPC分野では失敗したのか?

2011年05月09日 12時00分更新

文● 大原雄介(http://www.yusuke-ohara.com/

  • この記事をはてなブックマークに追加
  • 本文印刷

分岐を排除することが高速化への道

図1 Direct RDRAMの構造

 図1はDirect RDRAMの基本的な構造である。Base RDRAMやConcurrent RDRAMでは、配線数を削減する目的でDataとAddress/Commandを時分割多重化するという凝った構造になっていた。Direct RDRAMでは転送効率を引き上げるために、DataとAddress/Commandを分割したので、若干配線数は増えている。

 Direct RDRAMでは1チャンネルの信号線に、最大64個までのメモリーチップをぶら下げられる。DataとAddress/Commandは終端抵抗を入れて反射波を削減しており、これはのちにDDRメモリーも同様の方法を採用している。一方で、送受信に利用するクロック信号は終端で折り返しており、これにより行き/戻りのスキュー(信号のズレ)を削減する仕組みだ。

 「基本的にはSDRAMと変わらないのに、どうして高速伝送が可能なのか?」と考える人もいるだろう。Rambusによれば、キーとなるのは「分岐を作らない」ことだという。連載98回で使った図を例に説明しよう。

Non Parity 1-Bank DIMM(Unbuffered DIMM)での信号ライン

 この図を見ると、DIMMを介することでDataでは3ヵ所の分岐が、Address/Commandでは27ヵ所もの分岐が生じている。こうした分岐が信号を乱す最大の要因となるならば、分岐を排除すれば信号を高速化しても波形の乱れは生じない、となるわけだ。

 なお、図1でも分岐が生じているように見えるかもしれないが、実際の配線は一筆書きで終端抵抗までつながっている。この配線の真上に直接メモリーチップを接続することで、物理的な分岐の長さを最小限に抑えるように工夫している。Base RDRAMやConcurrent RDRAMのメモリーチップでは、まだリード(配線用の足)付きの「SOP」というパッケージだったが、Direct RDRAMでは「BGA」(Ball Grid Array)を使うことで余分なリード線を削減。分岐の最小化に努めた。

PC用メモリーモジュールとするために
「RIMM」と「C-RIMM」を開発

 家庭用ゲーム機やグラフィックスカードのように、基板上にDRAMチップを実装する製品ならこれは簡単だ。しかし、PCではDIMMなどのメモリーモジュールを使い、ユーザーのアップグレードを可能とするシステムでなければ使えない。そこで考えられたのが「RIMM」(Rambus Inline Memory Module)である。

2002年頃に販売されていたRIMM

 図2はRIMMを4枚装着する構造の説明図である。4枚のRIMMの配線が、一筆書きを構成するようになっているのがわかる。こうした構造とすることで、図1の構造を維持しながら、メモリーモジュールによるアップグレードを可能としたわけだ。

図2 RIMMを4枚装着するシステムの配線

 ただしこの構成では、SDRAMと異なり「空きスロット」が許されない。一筆書きが途切れてしまうからだ。これを避けるために「C-RIMM」と呼ばれるものが用意された。図3は2枚のRIMMと2枚のC-RIMMを使った例である。ようするに、C-RIMMは単に配線をつなげるだけの板で、RIMMを刺さないスロットにこのC-RIMMを装着しておけば、終端抵抗まで配線が全部つながるという仕組みだ。

RIMM(上)とC-RIMM(下)の例

図3 2枚のRIMMと2枚のC-RIMMを使ったシステムの構成

カテゴリートップへ

この連載の記事

注目ニュース

ASCII倶楽部

プレミアムPC試用レポート

ピックアップ

ASCII.jp RSS2.0 配信中

ASCII.jpメール デジタルMac/iPodマガジン