10月20日~29日にかけてLinley Processor Conference Fall 2020がオンライン開催となった。このカンファレンス、同じメーカーが複数の発表を別々に行なうという例はこれまでもあったのだが、(ほぼ)同じ内容の発表を2回行なうという例は今回が初めてではなかったかと思う(一応建前としてはチップ単体と搭載カードと別製品の体裁は取っているが)。
これが可能だった理由は、イベントのプレミア・スポンサーになっているからだろうか。ちなみにプレミア・スポンサーはスポンサー費用が一番高価で、3社がリストアップされているが、うち2社はARMとインテルである。
というわけで、残る一社としてプレミア・スポンサーを務めるとともに2回の発表を行なったのはFlex Logicである。読者の中でこの会社のことを良く知っているという方はそうはおられないと思う。
独自のFPGAファブリックのIPと、最近ではReconfigurable(再構成可能)のロジックIPを提供しているIPベンダーということになるが、ここ数年はAIのそれもEdge Inference向けに注力しており、今回発表されたのはInferX X1という独自のAI推論チップである。
ダイサイズあたりのスループット最大という
独特な性能のAI推論チップInferX X1
そのInferX X1、Flex Logicによれば「ダイサイズあたりのスループット最大」という、あまり他では見ない独特な性能の高さのアピールの仕方をしている。同社のInferX X1は、独自のReconfigurable Tensor Processorに4MBのSRAM、それとLPDDR4Xチップ1個を組み合わせた形で構成される。
「InferX X1」は、4MBのメモリーを実装していることもあって、16nmで54平方mmなので、決して小さいわけではないが、比較対象はもっと巨大なので十分競争力があるというのがFlex Logicの見解だ
Flex Logicの見解というのは、現在のEdge AIというとNVIDIAのJetson Xavier NX(Edge Embedded System向け)やTesla T4(Edge Server向け)がリーダーになっているとしたうえで、そのXavier NXやTesla T4と比較しても、十分に高速というのが同社の説明である。そのうえで、単位面積あたりの処理性能で比較すると圧倒的というのが同社の見解だ。
もちろんこれは、Flex Logicが最終的に売りたいのはチップだけでなく、このX1のIPも可能であれば売りたいと考えているからでもある。チップそのものを売るのであれば、端的に言えば製造プロセスやダイサイズは顧客にとっては直接には関係ない話であって、性能と価格、消費電力が要求に見合っていれば内部がどうかというのはわりと関係ない。
ところがFlex Logicが狙っているのは、将来顧客が自社製品を独自に作るにあたり、そこに内蔵するAIアクセラレーターとしてInferX X1を採用してもらうことである。
そのためには、単に性能が高いだけではだめで、AIアクセラレーターが占める面積をどうやって抑えるか、外付け部品をどこまで減らせるか、といったことが重要なファクターになる。先の画像のダイサイズ1mm2あたりのフレームレートはこうした観点で見ると、非常に重要な指標になるわけだ。
ただ、実はIPだけを提供するビジネスでは、なかなか使ってもらえないというデメリットもある。当たり前の話で、IPを組み込んでASICを作るなりFPGAに実装するなりしないと試すこともできないため、特に競合製品が山ほど湧いてきている昨今では、顧客がベンチマークを行なう前の検討段階で落ちてしまうこともあり得る。
実際に顧客に評価してもらうためにはどうするかというと、それこそ評価ボードを提供するなりFPGAでの実装を提供するなり、ということで顧客が簡単に自分のアプリケーションを載せて、その性能がニーズを満たせるかどうかを評価できるようにする必要がある。
加えて言えば、自社の製品を広範に使ってもらいたいとなると、自身でASICを作る気がない顧客に対するソリューションも必要になる。具体的には、現在Tesla T4をベースにEdge Serverを構築しているような顧客だ。こうした顧客にも使ってもらえるようにしたいとなると、単に評価ボードのレベルでは厳しく、最終製品への組み込みも可能なものが必要になる。

この連載の記事
-
第852回
PC
Google最新TPU「Ironwood」は前世代比4.7倍の性能向上かつ160Wの低消費電力で圧倒的省エネを実現 -
第851回
PC
Instinct MI400/MI500登場でAI/HPC向けGPUはどう変わる? CoWoS-L採用の詳細も判明 AMD GPUロードマップ -
第850回
デジタル
Zen 6+Zen 6c、そしてZen 7へ! EPYCは256コアへ向かう AMD CPUロードマップ -
第849回
PC
d-MatrixのAIプロセッサーCorsairはNVIDIA GB200に匹敵する性能を600Wの消費電力で実現 -
第848回
PC
消えたTofinoの残響 Intel IPU E2200がつなぐイーサネットの未来 -
第847回
PC
国産プロセッサーのPEZY-SC4sが消費電力わずか212Wで高効率99.2%を記録! 次世代省電力チップの決定版に王手 -
第846回
PC
Eコア288基の次世代Xeon「Clearwater Forest」に見る効率設計の極意 インテル CPUロードマップ -
第845回
PC
最大256MB共有キャッシュ対応で大規模処理も快適! Cuzcoが実現する高性能・拡張自在なRISC-Vプロセッサーの秘密 -
第844回
PC
耐量子暗号対応でセキュリティ強化! IBMのPower11が叶えた高信頼性と高速AI推論 -
第843回
PC
NVIDIAとインテルの協業発表によりGB10のCPUをx86に置き換えた新世代AIチップが登場する? -
第842回
PC
双方向8Tbps伝送の次世代光インターコネクト! AyarLabsのTeraPHYがもたらす革新的光通信の詳細 - この連載の一覧へ














