このページの本文へ

前へ 1 2 3 次へ

ロードマップでわかる!当世プロセッサー事情 第684回

中国Birenが作るGPGPUのようなAIプロセッサーBR100 AIプロセッサーの昨今

2022年09月12日 12時00分更新

文● 大原雄介(http://www.yusuke-ohara.com/) 編集●北村/ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

 今回取り上げるのは、8月のHotChips 34で詳細が公開された中国Biren Technology(壁仞科技)のBR100(とBR104)である。

 このBR100、GPGPU枠で紹介すべきか、AIプロセッサー枠で紹介すべきか悩んだのだが、一応AIプロセッサー枠とした。そもそもGPUから描画ユニットを取り去ったような格好をしているNVIDIAのA100とH100、AMDのInstinct MI100/200/300はともかくとして、そもそも描画ユニットを搭載したファミリーがいっさいないBR100の場合、中の作りは確かにGPUっぽいものの、これをGPGPUと評していいのか疑問な部分ではある。

上海の新興スタートアップ企業が作る
1000平方mm超えの巨大ダイ

 さて、Biren Technologyは上海に拠点を置く新興のスタートアップ企業である。創業時期は不明だが、それこそHot Chipsまでほぼステルスモードで推移していた。ただ2020年6月にシリーズAの投資(11億元)、ついで同年8月には1億3000万ドルのシリーズBの投資、2021年3月にもやはりシリーズBの投資を受けており、投資総額は公開されているだけで2億8520万ドルに達している

 さてそんなBirenのBR100のスペックが下の画像だ。

最初に見た時に「1074mm2!!!」と思ったが、これは後述する

 動作周波数は明示されていないが、INT8で2048TOPSと言うのは、決してハイエンドの性能ではない(例えばNVIDIAのH100は、SXMの方ではTensor CoreでINT 8の性能は4000TOPS)であるが、7nm(おそらくTSMC N7だろう)ということを考えればかなり健闘している部類に入ると思う。実際、A100と比較した際のAIワークロードの性能は平均2.6倍とされる。

A100の公称スペックは、INT 8だと624TFlops(SPARSモデルでは1248TOPSになっているが、これはまた別の話)だから、純粋にピーク性能で言えば3倍くらい違うわけで、思ったほどには伸びないという印象でもある

 ところで冒頭の1000mm2超えのダイをどうやって実現したか? と思ったら、素直に2ダイのMCM構成だった。

BR100は2ダイのMCM構成。BR104はこの半分、つまり1ダイ+HBM2E×2の構成である

 つまりダイ1個あたりで言えば537mm2で、これを2つ搭載しているから、1074mm2という計算になる。要するにAMDのInstinct MI250/250Xと同じ構造なわけだ。性能がInstinct MI250ほど高くないから、HBM2eの積層も半分になっているが、このあたりはバランスの話であって、そう悪い構成とは思えない。

 ちなみに記事冒頭の画像にもあるが、独自のBLinkと呼ばれる外部接続用のインターコネクトが8本用意されており、このうち7本を相互接続に、残る1本をホスト接続にすることで高性能なクラスターを構築できる、というあたりもInstinct MI250/250Xに近い。

Instinct MI250/250Xに近い構造。ということはBLinkはPCIe互換モードも持っている(BLinkとPCIeを切り替えて使える)ように思えるが、そのあたりの詳細は今回発表されていない

 ちなみにBR100は消費電力が550Wということもあって、OAM(OCP Accelerator Module)のみでの提供だが、ダイを半分にしたBR104の場合は計算上275Wになるということもあって、PCIeカードでの提供も行われることになっている。

このBR104のPCIeカードの方も3ポートのBLink I/Fが搭載されているそうだ(https://www.birentech.com/product_details/1005557844745474048.html)

前へ 1 2 3 次へ

カテゴリートップへ

この連載の記事

注目ニュース

ASCII倶楽部

プレミアムPC試用レポート

ピックアップ

ASCII.jp RSS2.0 配信中

ASCII.jpメール デジタルMac/iPodマガジン