このページの本文へ

世界最大級のAI向けメガチップ、米スタートアップが開発

2019年08月21日 11時19分更新

文● Martin Giles

  • この記事をはてなブックマークに追加
  • 本文印刷

1.2兆個のトランジスタを搭載したセレブラス・システムズ(Cerebras Systems)の新しい半導体チップは、人工知能(AI)アプリケーションの開発を急速に加速するかもしれない。

今週シリコンバレーで開催されたカンファレンス「ホット・チップス(Hot Chips)」で、スタートアップ企業のセレブラス・システムズが、コンピューターチップの「セレブラス・ウェーハー・スケール・エンジン(Cerebras Wafer Scale Engine)」を発表した。このチップは、エヌビディア(Nvidia)の最も大きいGPUの57倍ほどの大きさで、約3000倍のメモリをチップ上に搭載する。 現在のAIアプリケーションの多くは、AIモデルの訓練に必要な大量データの処理に適したGPU上で実行されている

世界中の半導体企業は、より小さなチップを開発することに数十年を費やしてきた。これらのチップを一緒に組み合わせれば、極めて高性能なプロセッサーを作れるはずだ。それなのになぜ、単体の巨大なAIメガチップを作る必要があるのだろうか?

セレブラス・システムズによると、多くの小さなチップを一緒につなげると、AIモデルの訓練のスピードを低下させるレイテンシー(遅延)が発生し、大きなボトルネックになってしまうからだという。同社のチップには、データ処理を高速化するために相互に緊密に接続された40万個のコアが搭載されている。また、このチップは処理とメモリの間でデータを極めて高速に移送できる。

しかし、このモンスターチップがAI分野で存在感を示すには、いくつかの大きなハードルを克服できることを示す必要がある。課題の一つは製造上の問題である。多くの小さなチップに使われるウェーハーに不純物が混入した場合、いくつかのチップは影響を受けなくてすむかもしれない。しかしウェーハー上にメガチップが1つしかない場合は、不純物によってチップ全体が影響を受ける可能性がある。セレブラス・システムズは、不純物が混入してもチップ全体が危険にさらされないようにする革新的な方法を発見したと主張しているが、その方法が大量生産においても有効かどうかは分からない。

もう1つの課題はエネルギー効率だ。 AIチップは、電力消費量が多いことで知られている。つまり、経済的影響と環境への影響の両方が懸念される。多数の小さなAIチップ間でデータを移送することは非常に電力を消費するため、セレブラス・システムズのメガチップはこの点で優位に立つべきだ。エネルギーの課題を解決できれば、セレブラス・システムズの巨大なチップがAIに本当に向いていることを証明するのに役立つかもしれない。

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ