自作PCユーザーがゲーム用PCの解説をします

自作ユーザーが解説するゲーミングPCガイド

Nvidiaが前四半期に900トンのH100 GPUを販売したとアナリスト会社が発表

投稿日:

アナリスト会社、Nvidiaが第2四半期に出荷したH100コンピュータGPUの数を推定。

Nvidiaが2024会計年度の第2四半期に103億ドル相当のデータセンター向けハードウェアを販売したと述べたとき、同社がハイエンドのH100コンピュートGPUを大量に販売したことが想像できたが、市場調査会社Omdiaによると、Nvidiaは2023暦年の第2四半期に文字通り900トンのH100プロセッサーを販売したという。

Omdiaは、Nvidiaが第2四半期に出荷した人工知能(AI)およびハイパフォーマンス・コンピューティング(HPC)用途のH100コンピュートGPUは900トン(180万ポンド)を超えると推定している。

Omdiaは、Nvidia H100コンピュートGPU1個の平均重量はヒートシンクを含めて3キログラム(6.6ポンド)を超えると見ているため、Nvidiaは第2四半期に30万個以上のH100を出荷したことになる。

Nvidia H100には3つの異なるフォームファクターがあり、すべて重量が異なる。

Nvidia H100 PCIeカードの重量は1.2キログラムで、Nvidia H100 SXMモジュールの重量は不明だが(Nvidiaに問い合わせた)、ヒートシンク付きOAMモジュール(H100 SXMとほぼ同じサイズとTDP)の重量は最高で2キログラムである。

Nvidia H100の出荷の80%がモジュールで、20%がカードだと仮定すると、H100 1枚の平均重量は約1.84キログラムとなる。

Omdiaによれば、Nvidiaが第2四半期に出荷したと思われるH100の数に基づいて重量を推定したため、実際の重量は900トンより少ないかもしれないが、それでもNvidiaは第2四半期に文字通り1トンのH100を供給したと言える。

Omdiaによれば、Nvidiaは今後の四半期にもほぼ同量のGPUを販売する見込みであるため、同社は今年、約3,600トン(720万ポンド)のH100 GPUを販売するペースにある。

このペースが変わらなければ、年間およそ120万個のH100 GPUを販売する計算になる。

これは概算だが、1四半期に30万枚以上のH100 GPUを出荷したのは大きな成果だ。

H100の数には中国向けのH800プロセッサーが含まれていると想像されるが、同社は前世代のA100、A800、およびA30のコンピュートGPUを、AI推論や技術計算のためにすでに使用している企業に(おそらく文字通り)大量に出荷していることも念頭に置く必要がある。

これは明らかに、GPUに対する飽くなき世界的需要を賄うには十分ではなく、NvidiaのAI GPUは年末を過ぎても完売している。

そのため、NvidiaがジェネレーティブAIブームに便乗することで、来年は出荷速度が加速すると予想される。

この話にもう少し文脈を加えるために、重さ900トンの他のものをいくつか紹介しよう:

  • 4.5 ボーイング747型機
  • スペースシャトル11機分
  • 215,827ガロンの水
  • 299台のフォードF150ライトニング
  • 181,818台のプレイステーション5
  • 32,727匹のゴールデンレトリバー

ソース:Tom’s Hardware – Nvidia Sold 900 Tons of H100 GPUs Last Quarter, Says Analyst Firm

 

 

 

 

解説:

nVIDIAは900トンのH100を出荷

約30万個と言うのですから驚きです。

それでも日本の関係企業・機関ではnVIDIAのGPUが手に入らないという悲鳴が上がっています。

もはや日本にGPUを売っている余裕などないのでしょう。

今回のAIアクセラレーターの不足はTSMCのCoWoSの生産能力に問題があるとも言われていますが、とにかく大人気であることは確かです。

一説には利益率900%などと言われており、マイニングブームが去ってもnVIDIAは安泰のようですね。

このあたりは迷惑なマイニング野郎が残していった大量のゴミ(不良在庫)の後始末に追われるPCゲーミングの世界とは対照的です。

最後に日本だとわけのわからない比較が乗っていますが、「32,727匹のゴールデンレトリバー」を見てクスッとなってしまいました。

 

一方でRadeonは・・・・

私もROCmのセットアップスクリプトを配布している関係でかなりAI/MLのプログラムに触れる機会は多いです。

ROCmは非常に優れた仕組みだと思いますが、やはりすべてのモジュールがROCm用に書き換えられているわけではありません。

マイナーなwhlモジュールだと全くメンテナンスされてないことも多いです。

また、サポートされる期間もかなり短く、サポートが開始されるまでにも長い時間がかかります。

それでもRDNA2は1年とちょっと、RDNA3も1年程度で正式サポートされるようになっています。

  • RX6900XTの発売時期が2020’12でROCm5.0のロンチが2022’1
  • RX7900XTXの発売時期が2022’12でROCm5.5(暫定対応)のロンチが2023’5、ROCm6.0(正式対応)のロンチが2023Q4

※ RDNA3は正確には4か月とちょっとで非公式にはサポートされています。

やはりこの分野は今のところnVIDIAの独壇場と言ってもよいのではないかと思います。

AMDやIntelも努力はしていると思いますが、今のところ存在感を示せるような状態ではないと思います。

それでも努力は続けるしかないですが、今のところnVIDIAの背中は遠いかなと思います。

多くのソフトウェアがnVIDIA標準で開発される中、他社製のGPUを購入する動機付けをするのは難しい状況です。

H100の対抗製品はMI200XやMI250X、MI30Xと言うことになるのでしょうが、ソフトウェアのことを考えると導入が決断されるのはかなり限定されたユースケースになるのではないかと思います。

 

 

 

  • B!