このページの本文へ

前へ 1 2 次へ

GeForce3の真実

GeForce3の真実

2001年03月06日 22時36分更新

文● 佐久間

  • この記事をはてなブックマークに追加
  • 本文印刷

MACWORLD EXPO/TOKYOの初日、2月22日にNvidiaはApple Macintosh向けと断りながら、コードネームNV20と呼ばれていた「GeForce3」を発表した。週が明けて2月26日の「IDF Spring 2001」(Intel Developer Forum)では、Windows用としても正式に公開。さらに、2月28日には独ELSA AG社の日本法人(株)エルザジャパンが、GeForce3を搭載した2D/3Dビデオカード「GLADIAC 920」を3月下旬より発売すると発表した。ここでは、エルザとNvidiaの公式発表資料を元に、GeForce3の真の実力を調べていこう。

コアクロック200MHz、メモリ230MHz(DDRで460MHz)で登場
「GeForce3」

GeForce3
5700万個のトランジスタを集積した「GeForce3」チップ。

 GeForce3は、コードネーム“NV20”と呼ばれていた新世代2D/3Dアクセラレータチップ。5700万個のトランジスタを集積し、最大128MBのDDR/SDR SDRAMを利用可能。コアクロックは200MHz、メモリクロックは230MHz(DDRで460MHz相当)で、コアクロック自体は従来のGeForce2 GTSと変わらないが、「Lightspeed Memory Architecture」「HRAA」「nfiniteFX Engine」という3つの新機能を搭載し、GeForce2シリーズとはレベルを異にした高速でリアルな描画性能を実現している。



GeForce3の技術デモ
Nvidiaが公開している、GeForce3の技術デモの画面より(オリジナルサイズ)。640×480ドットのCGとは思えないほど、緻密に刻まれたしわやひげに注目。Nvidiaによるデモンストレーションでは、この老人の顔が音声に合わせてリアルに動いた。

 Lightspeed Memory Architecture(光速のメモリアクセス)とは、また大仰な名称をつけたものだが、これはビデオチップとビデオメモリ間のバス(128bit/460MHz相当)がボトルネックになることを避けるための新技術。具体的には、

  1. 従来1つだったメモリコントローラを4つに増やして並列動作させる「クロスバーメモリコントローラ」(特許技術)
  2. オブジェクトの背後になってしまうピクセル(表示画面の最小単位)のレンダリングを省略
  3. 画面を構成するオブジェクトの奥行き情報“Zバッファ”を約1/4に圧縮

という3つで構成される。Nvidiaのライバル、ATIの「RADEON」と比較すると、(2)が「HyperZ」に近い技術と推測されるが、(3)を組み合わせることで画面を描画するたびに参照、比較、必要な場合は書き換えが行われるZバッファ(通常はフレームバッファと同容量)が少なく済む。つまり、ビデオメモリを効率的に使用でき、加えて(1)の並列処理でより高速なメモリアクセスが可能になるというわけだ。



HRAAの概念図
HRAAの概念図。従来のスーパーサンプリングではいったん解像度を上げた画像を持たねばならず、メモリが余計に必要となるほか、メモリバスに負荷がかかった。今回GPUにマルチサンプル用ハードウェアを追加することで、メモリの負担をかなり軽減しながら、高画質なアンチエイリアスを実現している。
Nvidiaの技術デモ
こちらもNvidiaの技術デモより(画面は約1/5程度に縮小したもので、オリジナルは2793×2836ドット)。周囲の風景が鏡面仕上げの表面に映り込んだカメレオン。こうした高精細テクスチャの張り込みはGeForce3の得意とするところ。

 次のHRAA(High Resolution Anti-Aliasing)は、画質の向上を目的としたフルシーンアンチエイリアス(斜めの線などに見られるギザギザ=ジャギーを隣接するピクセルの情報を元に補完する技法)をより高速に、かつ画質を落とさず処理する新しい手法だ。従来のGeForce2シリーズではFSAA(Full Scene Anti-Aliasing)を利用すると、途端に描画速度の低下が見られた。とくにDirect3Dアプリでの現象が顕著で、フレームレートは半分以下にまで落ち込んでしまう。これは、従来の手法「スーパーサンプリング」が実際の表示解像度より縦横2倍の解像度のピクセルをサンプリングし、それから表示ピクセルのデータを算出しているためで、ビデオチップにもビデオメモリにも大きな負荷がかかる。対して、GeForce3のHRAAでは、表示画面と同じ解像度(=メモリに負荷をかけない)のピクセルから、中心と周辺部(隣接するピクセルとの差)の5カ所をサンプリングし、その5つのデータから表示ピクセルのデータを計算している。そのためにビデオチップを強化し(集積トランジスタ数はGeForce2 GTSの2倍近い)、代わりにメモリへの負荷を軽減しているわけだ。結果、Nvidiaのテストによるとフレームレートの低下はほぼゼロになったという。実際にテストできるサンプルカードが届いたら、みっちり検証してみたい。



nfiniteFXの概念図
nfiniteFXの概念図。従来のGeForce2シリーズは下の3つのユニットだけだったが、上のプログラマブルな演算ユニット(いわばCPU代わり)が内蔵されたことにより、複数のエフェクトを組み合わせた複雑な表現方法が可能になった。
Nvidiaの技術デモ
こちらも技術デモより。最初に紹介した老人の顔と同じく、解像度は640×480ドットなのだが、表面の凹凸感(バンプマップ)や陰影(シェーディング)のリアルさが、解像度の低さを微塵も感じさせない。また、一度HDDに保存して拡大して見てほしいのだが、エッジに綺麗なアンチエイリアスがかかっている。

 最後のnfinite(インフィニットと読む)FX Engineは、従来のT&Lエンジンをより柔軟に、3Dアプリ(ゲーム)開発者に使いやすくしたものだという。頂点変換を行う「Vertex Processor」と、ピクセル単位のシェーディングを行う「Pixel Processor」の2つのエンジンが搭載され、合計100を超える各種エフェクトの実行命令を組み合わせて使用できる(DirectX 8にAPIが含まれる)。これを使えば、表面が波打つ、凹凸感を持たせるといった表現から、魚眼や望遠などの各種レンズ効果、重なり合った霧(半透明処理)や厚みのある雲(部分的に濃度を変えた霧)など、実に多彩な質感の表現を“独自にプログラムすることなく”“CPUに余計な負荷をかけずに”、ビデオチップ自身で実行できるというわけだ。実際、このGeForce3&DirectX 8に最適化される3Dゲームタイトルとして、イマジニアが3月16日に日本語版で発売を予定している3Dアクション「ジャイアンツシチズンカブト」の名前が挙がっている。残念ながら発売時点ではGeForce3&DirectX 8には最適化されていない(といってもGeForce2シリーズ+高速CPU向けにかなり美麗な画面=かなり重いゲームになっている)が、近々アップデートパッチを公開して対応するとのこと。DirectX 8はまだ登場したばかりだが、GeForce3向け(nfiniteFX Engine用)のAPIが標準採用されたことで、GeForce3&DirectX 8向けタイトルは今後ますます増えていきそうだ。



Nvidiaの技術デモ
最後も技術デモより。こちらは571×462ドットだが、表面のアルミホイルのようなしわのリアルさ、質感の高さには驚嘆の一言だ。単純なポリゴン+テクスチャ1枚と単純な表面処理のAPIを利用するだけで、こんな3DCGが描ける。

前へ 1 2 次へ

カテゴリートップへ

注目ニュース

ASCII倶楽部

ピックアップ

ASCII.jpメール アキバマガジン

ASCII.jp RSS2.0 配信中