GPU情報

NVIDIA GH100 HopperフラッグシップGPUは約1000mm2で、史上最大のGPUとなる。

更新日:

NVIDIAは、次世代Hopper GPUの商標を申請するのに苦労しているかもしれませんが、Kopite7kimiからの最新の噂では、このチップは約1000mm2の大きさになると主張しているので、旗艦GH100ダイの開発には支障がないようです。

NVIDIA GH100 GPU、次世代フラッグシップデータセンターチップのサイズは約1000mm2へ

現在、生産されている最大のGPUは、826mm2のNVIDIA Ampere GA100です。もしこの噂が正しければ、NVIDIAのHopper GH100は、1000mm2前後の大きさで、現在のモンスターGPUを少なくとも100mm2上回る、これまでに考えられた最大のGPU設計となるであろう。

しかし、それだけではありません。問題のダイサイズは、GH100 GPUのダイ1個分です。

HopperがNVIDIA初のMCMチップデザインになるという噂を聞いていますので、同じインターポーザーに少なくとも2個のHopper GH100 GPUを搭載すると考えると、ダイだけで2000mm2を計測することになります。

このことから、インターポーザは、複数のHBM2eスタックと他のコネクティビティを搭載することを考えると、我々がまだ見たことがないものよりもはるかに大きくなることが予想されます。

ただし、Greymon55は、Hopperはモノリシックデザインであり続けると述べており、最終的にどのようなチップデザインになるかは未知数である。

NVIDIA Hopper GPU - これまでに判明していることすべて

これまでの情報から、NVIDIAのH100アクセラレータは、MCMソリューションに基づき、TSMCの5nmプロセスノードを利用することが分かっている。

Hopperは、2つの次世代GPUモジュールを搭載するとされているので、合計で288個のSMユニットを搭載すると見られる。

各SMに搭載されるコア数が不明なので、コア数の内訳はまだわからないが、もしSMあたり64コアにこだわるなら、GA100のフルGPU構成の2.25倍となる18,432コアになると思われる。

NVIDIAは、Hopper GPUで、より多くのFP64、FP16、Tensorコアを活用することもでき、パフォーマンスを大幅に向上させることができるだろう。

そしてそれは、1:1のFP64を搭載すると予想されるIntelのPonte Vecchioに対抗するために必要なものになるでしょう。

最終的には、各GPUモジュールで144個のSMユニットのうち134個を有効にした構成になると思われ、そのため、GH100のダイが1個動作しているように見える可能性が高い。

しかし、GPU Sparsityを使わずに、NVIDIAがMI200と同じFP32やFP64 Flopsに到達することはあり得ない。

しかし、NVIDIAには秘密兵器がありそうで、それはCOPAベースのHopperのGPU実装になりそうだ。

NVIDIAは、次世代アーキテクチャをベースにした2つのドメイン特化型COPA-GPUについて、1つはHPC向け、もう1つはDLセグメント向けだと語る。

HPC向けは、MCM GPU設計とそれぞれのHBM/MC+HBM(IO)チップレットからなる非常に標準的なアプローチだが、DL向けが面白くなり始めるところだ。

DL版では、GPUモジュールと相互接続された全く別のダイに巨大なキャッシュを搭載しています。

アーキテクチャーLLC容量DRAM帯域DRAM 容量
構成(MB)(TB/s)(GB)
GPU-N602.7100
COPA-GPU-19602.7100
COPA-GPU-29604.5167
COPA-GPU-319202.7100
COPA-GPU-419204.5167
COPA-GPU-519206.3233
Perfect L2無限無限無限

※ 画像をクリックすると、別Window・タブで拡大します。

 

最大960 / 1920MBのLLC(Last-Level-Cache)、最大233GBのHBM2e DRAM容量、最大6.3TB/sの帯域幅を持つ様々なバリエーションが概説されています。

これらはすべて理論上のものだが、NVIDIAが今議論していることを考えると、GTC 2022での完全な発表の際には、こうした設計のHopperのバリエーションが登場する可能性が高い。

NVIDIA Hopper GH100の「予備的なスペック」:

NVIDIA Tesla
グラフィックスカード
Tesla K40
(PCI-Express)
Tesla M40
(PCI-Express)
Tesla P100
(PCI-Express)
Tesla P100
(SXM2)
Tesla V100
(SXM2)
NVIDIA A100
(SXM4)
NVIDIA H100
(SMX4?)
GPUGK110
(Kepler)
GM200
(Maxwell)
GP100 (Pascal)GP100 (Pascal)GV100 (Volta)GA100
(Ampere)
GH100
(Hopper)
製造プロセス28nm28nm16nm16nm12nm7nm5nm
トランジスタ数7.1 Billion8 Billion15.3 Billion15.3 Billion21.1 Billion54.2 BillionTBD
GPUダイサイズ551 mm2601 mm2610 mm2610 mm2815mm2826mm2~1000mm2?
SM数1524565680108134 (Per Module)
TPC数152428284054TBD
SM辺りのFP32
CUDA コア数
1921286464646464?
SM辺りのFP64
CUDA コア数
6443232323232?
FP32 CUDA
コア数
2880307235843584512069128576 ( Module毎)
17152 (Complete)
FP64 CUDA
コア数
9609617921792256034564288 ( Module毎)?
8576 (Complete)?
Tensorコア数N/AN/AN/AN/A640432不明
テクスチャ
ユニット数
240192224224320432不明
ブーストクロック875 MHz1114 MHz1329MHz1480 MHz1530 MHz1410 MHz~1400 MHz
TOPs (DNN/AI)N/AN/AN/AN/A125 TOPs1248 TOPs
2496 TOPs with Sparsity
不明
FP16 演算性能N/AN/A18.7 TFLOPs21.2 TFLOPs30.4 TFLOPs312 TFLOPs
624 TFLOPs with Sparsity
779 TFLOPs
(Per Module)?
1558 TFLOPs
with Sparsity
(Per Module)?
FP32 演算性能5.04 TFLOPs6.8 TFLOPs10.0 TFLOPs10.6 TFLOPs15.7 TFLOPs19.4 TFLOPs
156 TFLOPs With Sparsity
24.2 TFLOPs
(Per Module)?
193.6 TFLOPs
With Sparsity?
FP64演算性能1.68 TFLOPs0.2 TFLOPs4.7 TFLOPs5.30 TFLOPs7.80 TFLOPs19.5 TFLOPs
(9.7 TFLOPs standard)
24.2 TFLOPs
(Per Module)?
(12.1 TFLOPs
standard)?
メモリ
インターフェイス
384-bit GDDR5384-bit GDDR54096-bit HBM24096-bit HBM24096-bit HBM26144-bit HBM2e6144-bit HBM2e
メモリ容量
・種類
12 GB GDDR5 @ 288 GB/s24 GB GDDR5 @ 288 GB/s16 GB HBM2 @ 732 GB/s
12 GB HBM2 @ 549 GB/s
16 GB HBM2 @ 732 GB/s16 GB HBM2 @ 900 GB/s最大 40 GB
HBM2 @ 1.6 TB/s
最大80 GB
HBM2 @ 1.6
TB/s
最大100 GB
HBM2e @ 3.5
Gbps
L2キャッシュ
サイズ
1536 KB3072 KB4096 KB4096 KB6144 KB40960 KB81920 KB
TDP235W250W250W300W300W400W~450-500W

ソース:wccftech - NVIDIA GH100 Hopper Flagship GPU To Measure About 1000mm2 Making It The Largest GPU Ever Made

 

 

 

解説:

さて、nVidiaのサーバー用GPUのHopperくんのリークが入ってきました。

HopperはMCMと言われていますが、1Tile当たりのダイサイズがなんと1000mm2を超えるとのこと。

ちょっと俄かには信じがたい話です。

ここまで大きくするならば、500mm2程度にして4Tileにした方が良いのでは?と思います。

分割するとまあいろいろと問題も出てくるのでしょうが、そもそもMCMにするのは生産性やコスト的な問題のためだと思いますので、1000mm2のダイと言うのは現実味が無いように聞こえます。

リーカーのGraymon55氏はHopperはMCMにならないと言っており、ダイサイスが1000mm2になるならばなかなか説得力がある話です。

コイツをRadeonに対抗するためにGeforceとして投入するという話があります。

サーバー用GPUをDirectX用として出しても大した性能にならないのではないかとか、100万円以上になってしまうのではないかとかいろいろ感じるところはありますが、こちらも続報が出てみないことにははっきりしないところでしょう。

18000近いCUDAコアをゲームでブン回すところは見てみたい気もしますが・・・・。

 

 

 

nVidia RTX3000シリーズGPU

RTX3090

 

RTX3080Ti

 

RTX3080 10GB LHR

 

RTX3070Ti

 

Geforce RTX3070 8GB GDDR6 LHR

created by Rinker
ZOTAC(ゾタック)
¥132,880 (2022/05/20 03:36:29時点 Amazon調べ-詳細)
created by Rinker
ZOTAC(ゾタック)
¥100,184 (2022/05/20 03:36:30時点 Amazon調べ-詳細)

 

RTX3060Ti 8GB GDDR6

 

RTX3060 12GB GDDR6

 

RTX2000シリーズ

RTX2060 12GB

RTX2060が12GBメモリを搭載して復刻

 

nVidia Geforce RTX1600シリーズ

GTX1650SUPER

 

GTX1650 GDDR6

 

 

-GPU情報
-, ,

Copyright© 自作ユーザーが解説するゲーミングPCガイド , 2022 All Rights Reserved.