自作PCユーザーがゲーム用PCの解説をします

自作ユーザーが解説するゲーミングPCガイド

AMD、ROCmをコンシューマー向けに調整: 「Radeon」システムをローカライズされたAIソリューションに変える

投稿日:

AMDは、最新のROCmアップデートでRDNA 3アーキテクチャでのML開発サポートをプッシュアウトしており、「AI on Radeon」を推進するための重要な取り組みを行っている。

AMDは、ROCmを通じて平均的なRadeonユーザーがAI開発にアクセスできるようにする大きな一歩を踏み出し、最終的に採用を拡大する。

一般消費者がAIアプリケーションや大規模ワークロードをデータセンター・アーキテクチャに限定して考えるのは間違いではないだろうが、業界は最終的に、一般消費者向けGPUでもAI計算を体験できるように進化している。

TinyBoxのようなシステムは、AMDのRDNA GPUを中心に構築され、可用性を活用し、コストも節約しているが、ソフトウェア・サポートの問題では、このようなシステムは著しく遅れている。

今回AMDは、AI/MLワークロードのサポートを拡大し、Linux 24.10.3およびROCm 6.1.3用のRDNA 3 GPUで実行できるようにした。

そして興味深いことに、この変更は数カ月前に予想されていたもので、AMDによる最初のアップデートに続いて行われた。

チームレッドによると、PyTorch、ONNX Runtime、TensorFlowなどの環境に取り組んでいる研究者や開発者は、Linux上で最新のROCm 6.1.3を活用できるようになり、AMDのRadeon RX 7000シリーズGPUやワークステーションのRadeon W7000シリーズGPUの性能をそれぞれのユースケースで活用できるようになった。

同社によれば、RDNA 3アーキテクチャに基づくソリューションはコスト効率が高く、ローカライズされたシステムを提供するため、クラウドベースのサービスに存在するあらゆる欠点が取り除かれるという。以下は、AMDがこの変更を「売り込む」方法である:

 

デスクトップでMLのパフォーマンスを向上

  • 今日のモデルは、AI用に設計されていない標準的なハードウェアやソフトウェアの能力を容易に超えるため、MLエンジニアは、MLを搭載したアプリケーションを開発および訓練するためのコスト効率の高いソリューションを探しています。最新のハイエンドAMD Radeon 7000シリーズGPUを搭載したローカルPCまたはワークステーションの利用は、24GBまたは48GBという非常に大きなGPUメモリ・サイズが利用可能であるため、拡大するMLワークフローの課題に対応するための堅牢で強力かつ経済的なオプションを提供します。
  • 最新のハイエンドAMD Radeon 7000シリーズGPUは、RDNA 3 GPUアーキテクチャに基づいて構築されています、
  • 前世代と比較して、コンピュート・ユニット(CU)あたりのAI性能が2倍以上向上しています。
  • 最大192個のAIアクセラレータを搭載
  • 大規模なMLモデルを処理するために、最大24GBまたは48GBのGPUメモリを提供

その他の変更点として、最新のROCm 6.1.3では、PyTorch、TensorFlowのサポート、ONNX Runtimeの幅広いソースデータのサポートが含まれている。

これはAMDのソフトウェア・スタックにとって大きなアップデートであり、需要の高いAIライブラリが追加され、最終的にはより幅広い採用が可能になる。

RDNA 3 GPUのサポート追加は、「エッジAI環境」を促進するための一歩であることは確かだが、この動きにはパフォーマンス上の制約が存在する。

ソース:wccftech – AMD Tunes ROCm For Consumers: Turns Your “Radeon” Systems Into a Localized AI Solution

 

 

 

解説:

AMD ROCmをコンシュマー製品向けに調整

WSL2に正式対応したのは記憶に新しいです。

最新がROCm6.1.3と元記事では書いてありますが、最新はROCm6.2.3です。

コンシュマーからの利用者が最も多いと思われるWSL2に監視してはRDNA3しかまだ対応していません。

ZLUDAはRDNA2 GPUもほとんど対応していましたし、RDNA1にも対応する予定とのことだったので、AMDさんにはぜひ、WSL2の対応もRDNA1から行っていただきたいところです。

ZLUDAの動きを止めておきながら、サポートが非公式のものより落ちるのはいかがなものかと思います。

セルビアにソフトウェアの研究施設を作ったとのことですのでこの辺りは期待したいところです。

AI/MLはハードウェアもさることながら、一番大きいのはソフトウェアの力です。

Intelは多くの他社を巻き込んでOneAPIの普及を推進しています。

今のところIntelのAI/ML製品自体の完成度がイマイチ高くなくて存在感を発揮できていませんが、あと数年で影響力を発揮してくるかもしれません。

Battlemageももうすぐ出ると思いますが、その完成度も含めてはっきりとはしません。

しかし、Alchemist世代よりもかなり製品としては形になっていることだけは確実です。

今のところ有料アルファテストといった趣ですが、Battlemageは有料ベータテストくらいにはなっているでしょう。

これらのことを鑑みて、WSL2だけではなく、普通のアプリとして生成AIやLLMを手軽に利用できるような環境になってほしいところです。

 

 

 

 

  • B!