10nmではトランジスタ密度を2.7倍に増すことで
14nm世代の倍近いと言われるコストを下げる
こうした細かな積み重ねによって、トランジスタ密度を2.7倍にできた、というのがインテルの主張である。ちなみにこのトランジスタ密度であるが、インテルによる数え方は下の画像の通り。
当然Cell Libraryの種類によってトランジスタ数が異なるわけで、インテルでは2入力NANDとScan FlipFlopの2種類のトランジスタ密度を6:4の比で重み付けしたものを利用する、としている。
トランジスタ密度が増すことで、SRAMのサイズもどんどん小さくなる。最近は大容量キャッシュの搭載などで、ダイの上に占めるSRAMの比率がだんだん増えつつあるので、SRAMの面積は重要なメトリックとなる。
14nm世代では0.0588μm2と発表されていたが、10nm世代ではHP(高速・高消費電力)が0.0441μm2、LV(低速・低消費電力)が0.0367μm2、HD(高密度)が0.312μm2と説明されている。
面積比で言えば60%前後(58~62%)ということで、2.7倍にはやや遠いものの、かなり密度が上げられることがわかる。
この結果として、例えば45nm世代では100mm2だったダイを、回路そのままで微細化すると7.6mm2まで縮小できる、というのがインテルの主張である。なぜこれを強調するかといえば、要するにコストの問題である。
インテルの主張は一貫して「プロセスを微細化することで、トランジスタコストは下がる」であり、これを実現するためにはプロセスコストそのものの低減とあわせて、よりトランジスタ密度を上げる必要がある。
特にファウンダリービジネスを全力で推進する以上、コスト競争力は絶対的に必要になる。そうでなくてもインテルのファウンダリーは「性能はともかくコストが高い」という評判がずっと変わっておらず、この評判を払底するためにも、そして自社の製品の競争力を高めるためにも、トランジスタあたりのコストを下げていかないといけない。
上の画像の真ん中の図を見ていただくとわかるように、絶対的なコストは確実に上がっている。図は「単位面積あたりのコスト」という単位だが、ウェハーのサイズは300mmで変わらないので、結局これが絶対コストとほぼ同義語になる。
縦軸が対数であることを考えると、10nm世代のコストは14nm世代の倍近いと推察され、ところがトランジスタ密度を2.7倍にしたからトータルでは14nmより割安になる、という主張はインテルが絶対に崩せないものらしい。
もっとも現実問題としてインテルの製品を見ると、ダイサイズ一定でむしろ機能を詰め込む(コア数を増やす、3次キャッシュを増やす、シェーダーの数を増やすなど)方向になっており、そうなると製造原価は上の画像にある中央のように次第に上がっていく傾向にあるわけで、インテルのファウンダリーを使う顧客がこの状況をどう思っているのか、聞いてみたいところではある。
話を戻すと、この10nm世代についても、10nmと10nm++についての性能の指標が一応出ている。10nmは14nmと比較して25%の性能アップ、ないし45%の消費電力削減が実現できるとするが、10nm++はこの10nmと比較しても15%の性能アップ、ないし30%の性能実現が可能ということになる。
ただ、性能改善率は14nmと比較すると大きいが、14nm+と比較するとさほどではない。Kaby Lake世代と比較した場合、あまり動作周波数の改善は期待できないだろう。
2018年中に利用可能になる(=製品投入は2019年になると思われる)10nm+を利用した製品は、14nm++より多少落ちる程度まで性能が改善しそうなので、そこまで辛抱するしかない。実際それもあってインテルはCannon Lakeはモバイルのみにしたのだろう。
この連載の記事
-
第802回
PC
16年間に渡り不可欠な存在であったISA Bus 消え去ったI/F史 -
第801回
PC
光インターコネクトで信号伝送の高速化を狙うインテル Hot Chips 2024で注目を浴びたオモシロCPU -
第800回
PC
プロセッサーから直接イーサネット信号を出せるBroadcomのCPO Hot Chips 2024で注目を浴びたオモシロCPU -
第799回
PC
世界最速に躍り出たスパコンEl Capitanはどうやって性能を改善したのか? 周波数は変えずにあるものを落とす -
第798回
PC
日本が開発したAIプロセッサーMN-Core 2 Hot Chips 2024で注目を浴びたオモシロCPU -
第797回
PC
わずか2年で完成させた韓国FuriosaAIのAIアクセラレーターRNGD Hot Chips 2024で注目を浴びたオモシロCPU -
第796回
PC
Metaが自社開発したAI推論用アクセラレーターMTIA v2 Hot Chips 2024で注目を浴びたオモシロCPU -
第795回
デジタル
AI性能を引き上げるInstinct MI325XとPensando Salina 400/Pollara 400がサーバーにインパクトをもたらす AMD CPUロードマップ -
第794回
デジタル
第5世代EPYCはMRDIMMをサポートしている? AMD CPUロードマップ -
第793回
PC
5nmの限界に早くもたどり着いてしまったWSE-3 Hot Chips 2024で注目を浴びたオモシロCPU -
第792回
PC
大型言語モデルに全振りしたSambaNovaのAIプロセッサーSC40L Hot Chips 2024で注目を浴びたオモシロCPU - この連載の一覧へ