10月20日~29日にかけてLinley Processor Conference Fall 2020がオンライン開催となった。このカンファレンス、同じメーカーが複数の発表を別々に行なうという例はこれまでもあったのだが、(ほぼ)同じ内容の発表を2回行なうという例は今回が初めてではなかったかと思う(一応建前としてはチップ単体と搭載カードと別製品の体裁は取っているが)。
これが可能だった理由は、イベントのプレミア・スポンサーになっているからだろうか。ちなみにプレミア・スポンサーはスポンサー費用が一番高価で、3社がリストアップされているが、うち2社はARMとインテルである。
というわけで、残る一社としてプレミア・スポンサーを務めるとともに2回の発表を行なったのはFlex Logicである。読者の中でこの会社のことを良く知っているという方はそうはおられないと思う。
独自のFPGAファブリックのIPと、最近ではReconfigurable(再構成可能)のロジックIPを提供しているIPベンダーということになるが、ここ数年はAIのそれもEdge Inference向けに注力しており、今回発表されたのはInferX X1という独自のAI推論チップである。
ダイサイズあたりのスループット最大という
独特な性能のAI推論チップInferX X1
そのInferX X1、Flex Logicによれば「ダイサイズあたりのスループット最大」という、あまり他では見ない独特な性能の高さのアピールの仕方をしている。同社のInferX X1は、独自のReconfigurable Tensor Processorに4MBのSRAM、それとLPDDR4Xチップ1個を組み合わせた形で構成される。
Flex Logicの見解というのは、現在のEdge AIというとNVIDIAのJetson Xavier NX(Edge Embedded System向け)やTesla T4(Edge Server向け)がリーダーになっているとしたうえで、そのXavier NXやTesla T4と比較しても、十分に高速というのが同社の説明である。そのうえで、単位面積あたりの処理性能で比較すると圧倒的というのが同社の見解だ。
もちろんこれは、Flex Logicが最終的に売りたいのはチップだけでなく、このX1のIPも可能であれば売りたいと考えているからでもある。チップそのものを売るのであれば、端的に言えば製造プロセスやダイサイズは顧客にとっては直接には関係ない話であって、性能と価格、消費電力が要求に見合っていれば内部がどうかというのはわりと関係ない。
ところがFlex Logicが狙っているのは、将来顧客が自社製品を独自に作るにあたり、そこに内蔵するAIアクセラレーターとしてInferX X1を採用してもらうことである。
そのためには、単に性能が高いだけではだめで、AIアクセラレーターが占める面積をどうやって抑えるか、外付け部品をどこまで減らせるか、といったことが重要なファクターになる。先の画像のダイサイズ1mm2あたりのフレームレートはこうした観点で見ると、非常に重要な指標になるわけだ。
ただ、実はIPだけを提供するビジネスでは、なかなか使ってもらえないというデメリットもある。当たり前の話で、IPを組み込んでASICを作るなりFPGAに実装するなりしないと試すこともできないため、特に競合製品が山ほど湧いてきている昨今では、顧客がベンチマークを行なう前の検討段階で落ちてしまうこともあり得る。
実際に顧客に評価してもらうためにはどうするかというと、それこそ評価ボードを提供するなりFPGAでの実装を提供するなり、ということで顧客が簡単に自分のアプリケーションを載せて、その性能がニーズを満たせるかどうかを評価できるようにする必要がある。
加えて言えば、自社の製品を広範に使ってもらいたいとなると、自身でASICを作る気がない顧客に対するソリューションも必要になる。具体的には、現在Tesla T4をベースにEdge Serverを構築しているような顧客だ。こうした顧客にも使ってもらえるようにしたいとなると、単に評価ボードのレベルでは厳しく、最終製品への組み込みも可能なものが必要になる。
この連載の記事
-
第808回
PC
酸化ハフニウム(HfO2)でフィンをカバーすると性能が改善、TMD半導体の実現に近づく IEDM 2024レポート -
第807回
PC
Core Ultra 200H/U/Sをあえて組み込み向けに投入するのはあの強敵に対抗するため インテル CPUロードマップ -
第806回
PC
トランジスタ最先端! RibbonFETに最適なゲート長とフィン厚が判明 IEDM 2024レポート -
第805回
PC
1万5000以上のチップレットを数分で構築する新技法SLTは従来比で100倍以上早い! IEDM 2024レポート -
第804回
PC
AI向けシステムの課題は電力とメモリーの膨大な消費量 IEDM 2024レポート -
第803回
PC
トランジスタの当面の目標は電圧を0.3V未満に抑えつつ動作効率を5倍以上に引き上げること IEDM 2024レポート -
第802回
PC
16年間に渡り不可欠な存在であったISA Bus 消え去ったI/F史 -
第801回
PC
光インターコネクトで信号伝送の高速化を狙うインテル Hot Chips 2024で注目を浴びたオモシロCPU -
第800回
PC
プロセッサーから直接イーサネット信号を出せるBroadcomのCPO Hot Chips 2024で注目を浴びたオモシロCPU -
第799回
PC
世界最速に躍り出たスパコンEl Capitanはどうやって性能を改善したのか? 周波数は変えずにあるものを落とす -
第798回
PC
日本が開発したAIプロセッサーMN-Core 2 Hot Chips 2024で注目を浴びたオモシロCPU - この連載の一覧へ