ロードマップでわかる!当世プロセッサー事情 第682回
Meteor Lakeの性能向上に大きく貢献した3D積層技術Foverosの正体 インテル CPUロードマップ
2022年08月29日 12時00分更新
Meteor LakeがFoverosを利用する理由は
バイパスコンデンサーが必要だったから
タイルの中身はともかく、ここで謎なのがベースタイルの意味合いである。Meteor Lakeでは個々の機能はすべて4つ(CPU/GPU/SoC/IOE)のトップタイルに実装されているから、ベースタイルは単にこの4つのタイルをつなげるだけの意味合いでしかない。であれば、そもそもFoverosではなくEMIBでも良かったのでは? と思うのだが、Meteor Lakeがベースタイルを入れてFoverosを利用することにはちゃんとした理由があった。それが下の画像である。
Meteor Lakeのベースタイルの役割は以下の3つに分けられる。
- トップタイル同士の接続(“Die2Die Power delivery, package I/O routing”の部分)
- パッケージ外(つまりCPUパッケージから基板に接続する部分)への配線(“Redistribution layers with active silicon”の部分)
- 3Dキャパシター
このうち最初の2つは理解は簡単だろう。トップタイル同士の接続はベースタイルで行なうしかない。それと外部への接続も当然必要だ。ただ、これだけなら先に書いたようにEMIBでもほぼ同じことができる。EMIBでなくFoverosを利用した理由は、この3番目である。上の画像の赤枠部分を丸ごと3D構造のコンデンサーにしており、これはトップタイルの電源供給ピンへのパスコン(バイパスコンデンサー)として動作することになる。
パスコンが最新のプロセッサーでなぜ重要になるか? という話は連載658回のGraphCore BOW IPUの解説の中で説明した。BOW IPUはTSMCのSoIC-WoWを利用して、コンデンサーとなるダイをIPUのダイに張り付けることで3割強の性能改善を果たしたわけだが、インテルはMeteor Lakeでベースタイルにこのコンデンサーの役割を担わせたわけである。これがEMIBではなくFoverosが必要になった、最大の理由である。
この効果は顕著で、実際Intel 7、つまりAlder Lakeの世代ではパスコンの密度が193FF(Femto Farad:pFの1000分の1)/μm2に過ぎなかったのが、Foverosを併用することで500FF/μm2と、2.5倍に向上することになったとしている。
![](/img/2022/08/26/3410219/l/058f367b9929ff9f.jpg)
縦軸は“Total Capacitance”、つまりパッケージ内の容量とパッケージ外部に積層するパスコンの両方の合計である。14nm世代まではパッケージ内のコンデンサーはないに等しく、外部のパスコンのみだったのが、ここからどんどん容量を上げていった格好だ
全体に話を戻すと、Meteor Lakeではバンプのピッチが36μmとなっており、これは続くArrow Lakeでも変わらない。したがって、Foveros OmniではなくFoverosでの実装となっている。
![](/img/2022/08/26/3410220/l/7a82ea6910cba49c.jpg)
Meteor Lakeのバンプピッチは36μm。ちなみにMeteor Lakeのベースタイルのプロセスは未公表。GraphcoreのBOW IPUの場合は40nmプロセスで製造したらしいが、ベースタイルはどうだろう? 14nmでもまだおつりが来る感じで、ひょっとするとこちらもTSMCの40nmあたりでの製造なのかもしれない
ここでダイ同士の接続であるが、これはFDI(Foveros Die Interconnect)という独自のインターコネクトが採用されている。
![](/img/2022/08/26/3410221/l/808ce8d0143bb947.jpg)
ダイ同士はFDIという独自のインターコネクトで接続されている。ちなみにZen 3のInfinityFabricでは、確か2~3pJ/bitである。あちらは距離が長いし、通常のパッケージ上の配線なので同列に比較するのは間違っているのだが……
FDIに関してインテルに説明を投げたところ、以下の返事が返ってきた。
- FDIは3D積層向けの独自のインターコネクトで、現時点ではLakefield、Ponte Vecchio、それとMeteor Lakeで採用されている。
- FDIはあくまで物理的な規格であり、上位で任意のプロトコルを通せる。必要ならUCIeを通すことも可能。
- 現在の配線密度は1K信号/mm2だが、Hybrid Bondingでは10K信号/mm2、今後さらにバンプのピッチが縮まれば、100K信号/mm2も可能。
要するにFDIは単なる物理層の規格であって、上位のプロトコル層はなんでも構わないという話である。実際Meteor Lakeは以下の3種類のプロトコルを使い分けている。
- SoC Tile⇔CPU Tile:IDI
- SoC Tile⇔GPU Tile:iCXL
- SoC Tile⇔IOE Tile:IOSF+DisplayPort
このうちIDI(In-Die Interface)はSilvermont世代から利用されている、SoC内部でCPUコア同士を接続するためのプロトコルである。一方IOSF(Intel On-chip System Fabric)は、連載231回で名前が出てきたが、チップセット内部での接続に利用されるプロトコルである。今回の場合、PCIeのRoot ComplexそのものはSoCタイル内にあり、PHYがIOEタイルにあると思われ、このRoot ComplexとPHYの接続にIOSFを利用しているのだろう。
それはともかくiCXLって何? という話で質問が殺到したが、インテルの回答は「Meteor LakeはCXLはサポートしないが、CXLの規格そのものはインテルもサポートしており、将来のXeアーキテクチャーベースのコンピュート・アクセラレーターでCXLをサポート予定である。iCXLは、CXLの規格からPHY部分を除いて実装した内部的なもので、Die2Die I/Fをサポートする」という返事が返ってきた。
要するに、「GPUを接続するのにキャッシュコヒーレンシーやアクセラレーターサポートなどがいろいろあるからCXLのほうが都合が良かった一方、現在のCXLはPCIeを前提に構築されているので、そのままでは互換性がない。なのでCXLをFDI向けにカスタマイズしたのがiCXLで、結果としてCXLそのものとは互換性がないよ」ということだそうだ。
それにしてもそれぞれの接続本数は1000本とか2000本になっているわけで、なかなかの帯域である。実際にはデファレンシャル・シグナルで、しかも双方向接続だろうから、SoCタイル⇔CPUタイルは実際には512bit分。これを2つのIDIで利用するから1つあたり256bit幅になるが、仮に信号速度が2GHzだとすると帯域は64GB/秒ほど。メモリーが仮にDDR5-6400だとしてちょうど1ch分にマッチする格好だ。おそらくメモリーも2chだろうから、IDI×2でちょうどいい具合になるわけだ。
![](/img/blank.gif)
この連載の記事
-
第775回
PC
安定した転送速度を確保できたSCSI 消え去ったI/F史 -
第774回
PC
日本の半導体メーカーが開発協力に名乗りを上げた次世代Esperanto ET-SoC AIプロセッサーの昨今 -
第773回
PC
Sound Blasterが普及に大きく貢献したGame Port 消え去ったI/F史 -
第772回
PC
スーパーコンピューターの系譜 本格稼働で大きく性能を伸ばしたAuroraだが世界一には届かなかった -
第771回
PC
277もの特許を使用して標準化した高速シリアルバスIEEE 1394 消え去ったI/F史 -
第770回
PC
キーボードとマウスをつなぐDINおよびPS/2コネクター 消え去ったI/F史 -
第769回
PC
HDDのコントローラーとI/Fを一体化して爆発的に普及したIDE 消え去ったI/F史 -
第768回
PC
AIアクセラレーター「Gaudi 3」の性能は前世代の2~4倍 インテル CPUロードマップ -
第767回
PC
Lunar LakeはWindows 12の要件である40TOPSを超えるNPU性能 インテル CPUロードマップ -
第766回
デジタル
Instinct MI300のI/OダイはXCDとCCDのどちらにも搭載できる驚きの構造 AMD GPUロードマップ -
第765回
PC
GB200 Grace Blackwell SuperchipのTDPは1200W NVIDIA GPUロードマップ - この連載の一覧へ