ロードマップでわかる!当世プロセッサー事情 第682回
Meteor Lakeの性能向上に大きく貢献した3D積層技術Foverosの正体 インテル CPUロードマップ
2022年08月29日 12時00分更新
Meteor LakeがFoverosを利用する理由は
バイパスコンデンサーが必要だったから
タイルの中身はともかく、ここで謎なのがベースタイルの意味合いである。Meteor Lakeでは個々の機能はすべて4つ(CPU/GPU/SoC/IOE)のトップタイルに実装されているから、ベースタイルは単にこの4つのタイルをつなげるだけの意味合いでしかない。であれば、そもそもFoverosではなくEMIBでも良かったのでは? と思うのだが、Meteor Lakeがベースタイルを入れてFoverosを利用することにはちゃんとした理由があった。それが下の画像である。
Meteor Lakeのベースタイルの役割は以下の3つに分けられる。
- トップタイル同士の接続(“Die2Die Power delivery, package I/O routing”の部分)
- パッケージ外(つまりCPUパッケージから基板に接続する部分)への配線(“Redistribution layers with active silicon”の部分)
- 3Dキャパシター
このうち最初の2つは理解は簡単だろう。トップタイル同士の接続はベースタイルで行なうしかない。それと外部への接続も当然必要だ。ただ、これだけなら先に書いたようにEMIBでもほぼ同じことができる。EMIBでなくFoverosを利用した理由は、この3番目である。上の画像の赤枠部分を丸ごと3D構造のコンデンサーにしており、これはトップタイルの電源供給ピンへのパスコン(バイパスコンデンサー)として動作することになる。
パスコンが最新のプロセッサーでなぜ重要になるか? という話は連載658回のGraphCore BOW IPUの解説の中で説明した。BOW IPUはTSMCのSoIC-WoWを利用して、コンデンサーとなるダイをIPUのダイに張り付けることで3割強の性能改善を果たしたわけだが、インテルはMeteor Lakeでベースタイルにこのコンデンサーの役割を担わせたわけである。これがEMIBではなくFoverosが必要になった、最大の理由である。
この効果は顕著で、実際Intel 7、つまりAlder Lakeの世代ではパスコンの密度が193FF(Femto Farad:pFの1000分の1)/μm2に過ぎなかったのが、Foverosを併用することで500FF/μm2と、2.5倍に向上することになったとしている。

縦軸は“Total Capacitance”、つまりパッケージ内の容量とパッケージ外部に積層するパスコンの両方の合計である。14nm世代まではパッケージ内のコンデンサーはないに等しく、外部のパスコンのみだったのが、ここからどんどん容量を上げていった格好だ
全体に話を戻すと、Meteor Lakeではバンプのピッチが36μmとなっており、これは続くArrow Lakeでも変わらない。したがって、Foveros OmniではなくFoverosでの実装となっている。

Meteor Lakeのバンプピッチは36μm。ちなみにMeteor Lakeのベースタイルのプロセスは未公表。GraphcoreのBOW IPUの場合は40nmプロセスで製造したらしいが、ベースタイルはどうだろう? 14nmでもまだおつりが来る感じで、ひょっとするとこちらもTSMCの40nmあたりでの製造なのかもしれない
ここでダイ同士の接続であるが、これはFDI(Foveros Die Interconnect)という独自のインターコネクトが採用されている。

ダイ同士はFDIという独自のインターコネクトで接続されている。ちなみにZen 3のInfinityFabricでは、確か2~3pJ/bitである。あちらは距離が長いし、通常のパッケージ上の配線なので同列に比較するのは間違っているのだが……
FDIに関してインテルに説明を投げたところ、以下の返事が返ってきた。
- FDIは3D積層向けの独自のインターコネクトで、現時点ではLakefield、Ponte Vecchio、それとMeteor Lakeで採用されている。
- FDIはあくまで物理的な規格であり、上位で任意のプロトコルを通せる。必要ならUCIeを通すことも可能。
- 現在の配線密度は1K信号/mm2だが、Hybrid Bondingでは10K信号/mm2、今後さらにバンプのピッチが縮まれば、100K信号/mm2も可能。
要するにFDIは単なる物理層の規格であって、上位のプロトコル層はなんでも構わないという話である。実際Meteor Lakeは以下の3種類のプロトコルを使い分けている。
- SoC Tile⇔CPU Tile:IDI
- SoC Tile⇔GPU Tile:iCXL
- SoC Tile⇔IOE Tile:IOSF+DisplayPort
このうちIDI(In-Die Interface)はSilvermont世代から利用されている、SoC内部でCPUコア同士を接続するためのプロトコルである。一方IOSF(Intel On-chip System Fabric)は、連載231回で名前が出てきたが、チップセット内部での接続に利用されるプロトコルである。今回の場合、PCIeのRoot ComplexそのものはSoCタイル内にあり、PHYがIOEタイルにあると思われ、このRoot ComplexとPHYの接続にIOSFを利用しているのだろう。
それはともかくiCXLって何? という話で質問が殺到したが、インテルの回答は「Meteor LakeはCXLはサポートしないが、CXLの規格そのものはインテルもサポートしており、将来のXeアーキテクチャーベースのコンピュート・アクセラレーターでCXLをサポート予定である。iCXLは、CXLの規格からPHY部分を除いて実装した内部的なもので、Die2Die I/Fをサポートする」という返事が返ってきた。
要するに、「GPUを接続するのにキャッシュコヒーレンシーやアクセラレーターサポートなどがいろいろあるからCXLのほうが都合が良かった一方、現在のCXLはPCIeを前提に構築されているので、そのままでは互換性がない。なのでCXLをFDI向けにカスタマイズしたのがiCXLで、結果としてCXLそのものとは互換性がないよ」ということだそうだ。
それにしてもそれぞれの接続本数は1000本とか2000本になっているわけで、なかなかの帯域である。実際にはデファレンシャル・シグナルで、しかも双方向接続だろうから、SoCタイル⇔CPUタイルは実際には512bit分。これを2つのIDIで利用するから1つあたり256bit幅になるが、仮に信号速度が2GHzだとすると帯域は64GB/秒ほど。メモリーが仮にDDR5-6400だとしてちょうど1ch分にマッチする格好だ。おそらくメモリーも2chだろうから、IDI×2でちょうどいい具合になるわけだ。

この連載の記事
-
第814回
PC
インテルがチップレット接続の標準化を画策、小さなチップレットを多数つなげて性能向上を目指す インテル CPUロードマップ -
第813回
PC
Granite Rapid-DことXeon 6 SoCを12製品発表、HCCとXCCの2種類が存在する インテル CPUロードマップ -
第812回
PC
2倍の帯域をほぼ同等の電力で実現するTSMCのHPC向け次世代SoIC IEDM 2024レポート -
第811回
PC
Panther Lakeを2025年後半、Nova Lakeを2026年に投入 インテル CPUロードマップ -
第810回
PC
2nmプロセスのN2がTSMCで今年量産開始 IEDM 2024レポート -
第809回
PC
銅配線をルテニウム配線に変えると抵抗を25%削減できる IEDM 2024レポート -
第808回
PC
酸化ハフニウム(HfO2)でフィンをカバーすると性能が改善、TMD半導体の実現に近づく IEDM 2024レポート -
第807回
PC
Core Ultra 200H/U/Sをあえて組み込み向けに投入するのはあの強敵に対抗するため インテル CPUロードマップ -
第806回
PC
トランジスタ最先端! RibbonFETに最適なゲート長とフィン厚が判明 IEDM 2024レポート -
第805回
PC
1万5000以上のチップレットを数分で構築する新技法SLTは従来比で100倍以上早い! IEDM 2024レポート -
第804回
PC
AI向けシステムの課題は電力とメモリーの膨大な消費量 IEDM 2024レポート - この連載の一覧へ