GPU情報

NVIDIA Tesla V100s Voltaベースのグラフィックスカードは、16TFLOPs以上の計算、1 TB/s以上のメモリ帯域幅の高いGPUクロックを特長としています

投稿日:

NVIDIAは、Tesla V100Sとして知られるVoltaベースのTeslaグラフィックカードの新しいバリアントをリリースしました。

新しいサーバー向け製品は、Volta GPUと同じ仕様を搭載していますが、GPUとメモリの両方ではるかに高速のクロック周波数を提供し、単精度の計算ワークロードで16TFLOPを超えるパフォーマンスを実現します。

NVIDIA Tesla V100S Volta GPUは、16TFLOPS以上の演算能力と1TB/s以上のメモリ帯域幅をサーバーにもたらします

構成に関しては、Tesla V100Sには、12nm FinFETプロセスノードに基づいたGV100 GPUと同じです。

仕様には、5120 CUDAコア、640 Tensorコア、および32 GBのHBM2メモリが含まれます。

おわかりのように、これらは既存のTesla V100と非常によく似た仕様ですが、GPUとメモリクロック速度の両方に大幅な変更が加えられています。

Tesla V100SはPCIeフォームファクターでのみ提供されますが、300W Tesla V100 SMX2(NVLINK)製品よりも高いクロックを提供します。

SMX2モデルの1533 MHzと比較して、1601 MHzのGPUクロック速度を備えており、HBM2 DRAMに対してより高い1.1 Gbps周波数も提供します。

メモリとグラフィッククロックの組み合わせにより、このTeslaモデルは最速のHPCおよびサーバー向けグラフィック製品になります。

上記のクロック速度で、Tesla V100Sは理論的なFP32演算性能は16.4 TFLOP、FP64演算性能は8.2 TFLOP、およびDNN/DL(ディープラーニング)計算は130 TFLOPを提供できます。

このカードは、Tesla V100の1秒あたり900 GBの帯域幅に対して、1テラバイト以上のメモリ帯域幅(1134 GB / s)も出力します。

Tesla V100Sは250W設計で提供され、7nm Vega 20 GPUアーキテクチャに基づいたAMDのRadeon Instinct MI60よりも高い計算パフォーマンスを備えていますが、300WのTDPで14.75 TFLOPsの最大FP32計算パフォーマンスを提供します。

NVIDIA Volta Tesla V100S仕様:

NVIDIA Tesla
グラフィックカード
世代
Tesla K40
(PCI-Express)
Tesla M40
(PCI-Express)
Tesla P100
(PCI-Express)
Tesla P100 (SXM2)Tesla V100 (PCI-Express)Tesla V100 (SXM2)Tesla V100S (PCIe)
GPUGK110
(Kepler)
GM200
(Maxwell)
GP100
(Pascal)
GP100
(Pascal)
GV100
(Volta)
GV100
(Volta)
GV100
(Volta)
製造プロセス28nm28nm16nm16nm12nm12nm12nm
トランジスタ数71億80億153億153億211億211億211億
GPU
ダイサイズ
551 mm2601 mm2610 mm2610 mm2815mm2815mm2815mm2
SMs15245656808080
TPCs15242828404040
SM当たりの
CUDAコア数
1921286464646464
CUDAコア数
(合計)
2880307235843584512051205120
テクスチャ
ユニット
240192224224320320320
FP64 における
SM当たりの
CUDAコア
6443232323232
FP64 における
CUDAコア数
9609617921792256025602560
ベース
クロック
745 MHz948 MHz1190 MHz1328 MHz1230 MHz1297 MHzTBD
ブースト
クロック
875 MHz1114 MHz1329MHz1480 MHz1380 MHz1530 MHz1601 MHz
FP16
演算能力
無し無し18.7 TFLOPs21.2 TFLOPs28.0 TFLOPs30.4 TFLOPs32.8 TFLOPs
FP32
演算能力
5.04 TFLOPs6.8 TFLOPs10.0 TFLOPs10.6 TFLOPs14.0 TFLOPs15.7 TFLOPs16.4 TFLOPs
FP64
演算能力
1.68 TFLOPs0.2 TFLOPs4.7 TFLOPs5.30 TFLOPs7.0 TFLOPs7.80 TFLOPs8.2 TFLOPs
メモリバス幅384bit384bit4096bit4096bit4096bit4096bit4096bit
メモリ容量
メモリ種類
メモリ帯域幅
12 GB
GDDR5
@ 288 GB/s
24 GB
GDDR5
@ 288 GB/s
16 GB HBM2
@ 732 GB/s
12 GB HBM2
@ 549 GB/s
16 GB HBM2
@ 732 GB/s
16 GB HBM2
@ 900 GB/s
16 GB HBM2
@ 900 GB/s
16 GB HBM2
@ 1134 GB/s
L2キャッシュ
容量
1536 KB3072 KB4096 KB4096 KB6144 KB6144 KB6144 KB
TDP235W250W250W300W250W300W250W

Tesla V100 PCIeと比較すると、Tesla V100Sから得られる計算パフォーマンスは約17%向上しています。

これは素晴らしい増加であり、サーバーの視聴者はアップグレードの理由としてそれを見るでしょう。

ここで考慮すべき唯一のことは、AMD InstinctパーツはPCIe Gen 4.0互換性を備えており、2020年に多くの主要なサーバープレーヤーがPCIe 4.0プラットフォームに移行するため、NVIDIAは独自のPCIe Gen 4.0実装で作業する必要があります。 アンペアGPUが登場します。

現在、Tesla V100Sの価格設定や入手可能性については言及されていませんが、6000ドルを超えると予想されます。

ソース:wccftech - NVIDIA Tesla V100s Volta Based Graphics Card Features Higher GPU Clocks For Over 16 TFLOPs Compute, Over 1 TB/s Memory Bandwdith

 

解説:

nVidiaの機械学習向け新製品が出ない→今回はVoltaの改良版でした

nVidiaの機械学習向けの新製品が出ないと思っていたのですが、今回はTesla V100SというVoltaの高クロック版でした。

この製品はパートナー企業に積極的にPRしてくださいとnVidiaは言ってないようで、あまり派手にはPRしていないようですね。

てっきり7nmEUVの大規模性能向上版が出るものと思っていた私にとってはかなり肩透かしを食らいました。

AmpereはVoltaの後継になると思っていたのですが、どうも違うようです。

AI/DL向けのGPUの更新サイクルはゲーム向けGPUとは違うようです。

概要に関してはtechpowerupのほうが今回は先だったので、ツイッターでツイートしてあります。

翻訳しないトピックに関しても触れていますので、最新情報が気になる方はツイッターのアカウントをフォローされることをお勧めしておきます。

さて、今回Tesla V100Sの話題が出たところで今後のnVidiaのGPU製品の噂などをまとめてみましょう。

まず、Geforceの次期製品と見られているAmpereですが、こちらは現在

・2020年3月に発表され、6月に発売される(海外の証券アナリスト)

・2020年Q4に発表され、2021年に発売される(日本のアスキー)

2つの説があります。

私はどちらかと言うとサムスンの7nmEUVの生産状況なども考慮に入れて予測している日本のメディアの説を信用しています。

また、ドイツのフォーラムでAmpereの技術情報が初めて噂として出てきましたが、それによると、

RTX3080Tiは6000-7000 CUDAコアになると予想されています。

Tensorコア(DLSS)やRTコア(レイトレーシング)の処理能力は50-100%向上すると言われています。

TU102のメモリバス幅はフルシリコンで384bitですが、こちらは1.5倍の576bit以上になるのではないかと思います。

演算能力やTensorコア、RTコアの性能向上によって必要とされるメモリ帯域は今回はメモリ速度だけではなく、メモリ容量を増やしてバス幅を広げて対応するということのようです。

つまり、各モデルともにメモリ容量がアップする可能性があるということですね。

GA102が18GB前後、

GA104、GA106が12GB前後、

GA116(?)が8GB前後

この程度になるのではないかと思います。

容量が増えた分のバス幅の帯域とメモリ速度そのものの向上によって大幅に最終的なメモリ帯域が増えるものと思います。

RTX2000、GTX1600シリーズは12/14Gbpsが主に使われていますが、RTX3000シリーズは16Gbpsや18GbpsのGDDR6メモリも使われるのではないかと思います。

高速化とメモリバス幅の広帯域化によって最終的なメモリ帯域幅を性能向上に見合ったレベルにするのではないかと思います。

こう考えてみるとやはり、GA100系の次期GeforceはMaxwellからPascalの性能向上に近い大ジャンプになると思います。

参考記事:噂:ドイツのフォーラムにで語られた世界で最初のAmpere技術情報

 

 

nVidia RTX4000SUPER

 

nVidia RTX4000

 

nVidia RTX3000シリーズGPU

RTX3060 12GB GDDR6

 

RTX3050 6GB

 

 

 

-GPU情報

Copyright© 自作ユーザーが解説するゲーミングPCガイド , 2024 All Rights Reserved.