ロードマップでわかる!当世プロセッサー事情 第581回
謎が多いGeForce RTX 3000シリーズのプロセスとGDDR6X NVIDIA GPUロードマップ
2020年09月21日 12時00分更新
8LPPを採用した要因は生産量とコスト
ではなぜ7LPPを使わずに、8LPP派生型の8Nを使ったか? 可能性としては以下の3つが考えられる。
- Defect(欠陥)が多くて使えなかった
- 生産量的に間に合わなかった
- コストが高くなりすぎた
ただ、1番目に関してはそれほどシビアではなかったと思われる。というのは、IBMはそのSamsungの7nmを使ってPOWER10を製造することを今年のHotChipsで発表しており、少なくとも600mm2のダイまではある程度の歩留まりで製造できることが見えている。
したがって、400mm2台のダイの製造の歩留まりはおそらく問題にならない程度に収まったと思われる。それだけA100の800mm2オーバーが論外という話ではあるのだが。
2番目は割と真実味のある話である。まだEUVを利用した場合、スループットはそれほど上がらない。正確な数字ではないが、おおむねArF+液浸を使った場合、1台のステッパー(露光機)で1日6000ウェハー程度を処理できる。
ところがEUVでは、これが2018年当時でおおむね1日1500ウェハー程度。現在はもう少し上がってるらしいが、それでも2000ウェハー/日まで向上しているかどうか、というあたりだろう。仮に2000ウェハーだとして、生産量が1/3に落ちる計算だ。
もちろんこれはマルチパターニングなら話が変わってくる。ダブルパターニングだとArF+液浸で3000ウェハー/日、トリプルパターニングで2000ウェハー/日なので、そうなるとすでにEUVステッパーの性能は、ArF+液浸のステッパーと性能が変わらないというのがEUV推進派の主張である。
この主張そのものは正しいのだが、問題はEUVステッパーは極端に高価(1台1億2000万ドル!)なことで、ArF+液浸のステッパーはその半額未満である。
通常ファウンダリーはステッパーが1台ということはなく、複数台が並行して動いているわけだが、EUVのステッパーはそこまでの台数をそろえるのが難しい。なので1台あたりのスループットが同じであっても、台数の差でEUVステッパーを利用したウェハーの生産量は限られる。
これはPOWER10やそれこそA100のような「ダイサイズは滅茶苦茶大きいが、必要とされる数はそれほど多くない製品」、あるいはダイサイズが100mm2を切るモバイル向けSoCのように「1枚のウェハーから大量に取れるので、結果的にウェハー数を抑えられる」製品には使えるかもしれないが、GA102のような「ダイサイズが大きく、しかも出荷数量も多い」製品にはなかなか厳しいことになる。
3つ目はコストの話である。現状EUVを利用したプロセスは、ArF+液浸とコストがそれほど変わらない。理由はEUVのステッパーの償却費が乗っかるためだ。
ArF+液浸の場合、複数回ステッパーを廻す(*1)のと、その複数回の露光にそれぞれ異なるマスクが必要なため、これの初期コストがバカにならないのがコスト高騰の主要因である。
(*1) 正確に言えばステッパーで露光してから、それをCMP(化学機械研磨)などで削って、必要なら別の材料を補填して、またステッパーをかけて、という具合に処理プロセスが急激に増える。
EUVはこれが1回の露光で済むから経済的というのは事実そうで、マスクコストは大幅に減るのだが、その分1回の露光に必要なコストが急激に上がっている。
ちなみにEUVのステッパーを稼働するのには1MWの電力が必要とされる。この電気代もシャレにならない。こうなってくると、EUVを使って400mm2のダイと、ArF+液浸で600mm2のダイのどちらが安いかという、わりと真剣な議論になる。
おそらく今回の8LPPを使うという決断は、生産量とコストの両面が主要因だったと思われる。というより、NVIDIAのBig Die志向が続く限り、この決断はやむを得なかっただろう。その代償が、Board Power 320Wや350Wというバカみたいな消費電力である。
540億トランジスタのA100が400Wなのに、280億個とほぼ半分のGA100がこんなに消費電力が多いのは、動作周波数の差もあるとはいえ、明らかに8Nプロセスを利用したためである。
そもそも10LPE→10LPP→8LPPという一連の改良の中に省電力化の改良が一切入ってないあたり、これはやむを得ない選択だったのだろう。
この連載の記事
-
第798回
PC
日本が開発したAIプロセッサーMN-Core 2 Hot Chips 2024で注目を浴びたオモシロCPU -
第797回
PC
わずか2年で完成させた韓国FuriosaAIのAIアクセラレーターRNGD Hot Chips 2024で注目を浴びたオモシロCPU -
第796回
PC
Metaが自社開発したAI推論用アクセラレーターMTIA v2 Hot Chips 2024で注目を浴びたオモシロCPU -
第795回
デジタル
AI性能を引き上げるInstinct MI325XとPensando Salina 400/Pollara 400がサーバーにインパクトをもたらす AMD CPUロードマップ -
第794回
デジタル
第5世代EPYCはMRDIMMをサポートしている? AMD CPUロードマップ -
第793回
PC
5nmの限界に早くもたどり着いてしまったWSE-3 Hot Chips 2024で注目を浴びたオモシロCPU -
第792回
PC
大型言語モデルに全振りしたSambaNovaのAIプロセッサーSC40L Hot Chips 2024で注目を浴びたオモシロCPU -
第791回
PC
妙に性能のバランスが悪いマイクロソフトのAI特化型チップMaia 100 Hot Chips 2024で注目を浴びたオモシロCPU -
第790回
PC
AI推論用アクセラレーターを搭載するIBMのTelum II Hot Chips 2024で注目を浴びたオモシロCPU -
第789回
PC
切り捨てられた部門が再始動して作り上げたAmpereOne Hot Chips 2024で注目を浴びたオモシロCPU -
第788回
PC
Meteor Lakeを凌駕する性能のQualcomm「Oryon」 Hot Chips 2024で注目を浴びたオモシロCPU - この連載の一覧へ