自作PCユーザーがゲーム用PCの解説をします

自作ユーザーが解説するゲーミングPCガイド

AMDのMI300XはNVIDIAのH100よりはるかに優れた選択肢だとAIスタートアップTensorWaveのCEOが語る

投稿日:

AIスタートアップのTensorWave社は、AMDのInstinct MI300Xアクセラレータは、NVIDIAのH100などの競合製品よりもはるかに優れた選択肢であると考えている。

AIスタートアップのCEOによると、AMDのInstinct MI300Xアクセラレータは、価格対性能比が優れていることも相まって、NVIDIAを凌駕しているという。

AMDはわずか6カ月間で、フラッグシップ製品であるInstinctアクセラレーターを業界から大量に受注し、大きな人気を博している。

Instinct MI300Xは以前から市場に存在していたが、より魅力的な選択肢となった要因は、AMDがアクセラレーターをより安定的に供給できるようにしたことであり、AMDのソフトウェア・エコシステムで目撃したアップグレードの「波」は言うまでもない。

TensorWaveのジェフ・タタルチャクCEOは、AMDのInstinct MI300Xアクセラレータは、NVIDIAのH100よりもはるかに優れた選択肢であると見ている。

同氏は、AI GPUの受注残を目の当たりにしているNVIDIAとは異なり、「購入可能」だと言う。

TensorWaveは、AMDのMI300X AIアクセラレータの20,000ユニットの広範な武器庫を、元のSKUの価格の何分の一かのコストでリース提供することに取り組んでいる。

さらに同社は、広範な広告を通じて市場におけるAMDの採用を急速に加速させ、AMDが現代においてより現実的な選択肢であることを消費者に保証する計画だ。

TensorWaveの関心とは別に、我々は最近、MI300Xが競合他社の頭痛の種になっていることを報告した。

このアクセラレーターは、NVIDIAがHopperラインナップで獲得した注目のレベルには達していないが、AMDの未来が明るいことは確かだと感じている。

NVIDIAは市場イメージを確立する上で素晴らしい仕事をした。

それでも、広く行われた調査によれば、性能の面では、メモリ容量や演算能力など、さまざまな面でMI300Xが優位に立っており、AMDがエコシステム全体を成長させることができれば、今後、競争力を発揮できる可能性があることを示している。

NVIDIAのBlackwellがデビューしたことで、業界は今、NVIDIAに味方している。

しかし、AMDの次世代アクセラレーターであるMI400sがあらゆる部門でBlackwellを追い越すことに成功すれば、AMDは今後数年間、AI市場で強気な展開を見せる可能性は十分にある。

ソース:wccftech – AMD’s MI300X Is a Far Superior Option Than NVIDIA’s H100s, Says AI Startup TensorWave’s CEO

 

 

 

解説:

MI300シリーズが市場に高く評価されている

当サイトではROCmのセットアップスクリプトを配布あってある程度の評価はできますが、現時点ではNIVIDAに対して特に優位に立っている点はないと感じます。

もちろんですが、RX7900XTXでの評価です。

イラスト生成AI限定ですが、各WebUIともROCmに最適化されていないと思われるので、もう少し性能が出てもよいのではないかと感じます。

メモリ使用量においてもノウハウがあまりたまっていないこともあり、鉄板の設定というのも知られていません。

もちろん、これはRDNA3での話ですから、MI300では違っている可能性が高いです。

しかし、現時点のMi300はすぐに手に入るAI/MLアクセラレーターとして高く評価されているようです。

これは非常に良いことだと思います。

MI300が売れまくってくれれば、それだけ多くのプログラマーがかかわることになります。

そうすると、ROCm最適化のノウハウというものが溜まっていき、実際のソフト開発に影響を及ぼすようになればしめたものだと思います。

現時点では動くだけで感謝という状態であり、市場には何らの影響も及ぼせていませんし、存在感も発揮できていません。

しかし、ある程度の数が出れば、ROCm用の最適化やオプションが整備される可能性が高いのかなと思います。

AMDはROCmに2016年から投資していることもあり、現在では非常に簡単にセットアップすることができます。

Linuxが使えるならば普通に使うことができます。

コツコツと改良を続けてきただけあって、MI300もある程度即戦力として使うことができるでしょう。

LinuxでのStable Diffusion WebUIでは共有GPUメモリ(GPUのメモリが足りなくなるとメインメモリの半分まで使える機能)が使えませんが、もともと潤沢なメモリを搭載しているサーバー向けのGPUにはあまり必要とされない機能でしょう。

細かな違いはありますが、ほぼ普通に使えるレベルまで来ています。

昔ROCmを使って投げだした方も改めて使う機会があったら是非試していただきたいですね。

即戦力としての評価があのIntel製品より高いのはコツコツと投資を続けてきた結果なのかなと思います。

元記事ではMI400にも触れられていますが、せっかくRDNA4の上位モデルをキャンセルしてまで発売するのですから、ぜひとも高い性能をマークしてほしいところです。

今のところ、1ホビーユーザーの手元にはMI300が売れて、ROCmが使われているという実感がないのが寂しいところです。

 

 

  • B!