インテルとAMDが見送った後、ZLUDAはおそらく水泡に帰しただろう。
NvidiaのCUDAワークロードをIntel GPU上で実行できるようにしたソフトウェア「ZLUDA」が、大きな変更とともに復活した: ZLUDAは現在、IntelモデルではなくAMD GPUで動作している(Phoronixより)。
ZLUDAの開発者Andrzej Janik氏(ハンドルネームはvosen)は、”現実的には、それは現在放棄されている “と述べている。
ZLUDAは2020年に初めて登場し、インテルGPUをCUDAと互換性のあるものにすることで大きな可能性を示した。
当時、インテルのGPUは統合グラフィックスだけだったが、コンピューティング界はPonte VecchioやArc AlchemistといったインテルのXeベースGPUの発売を期待していた。
それらのGPUが発売された今、ZLUDAは多くの用途を見出すことができるだろう。
おそらく、2020年当時はそれが意図されていたのだろう。
しかし、ZLUDAは2021年2月にGitHubから削除され、Janikは “プライベートな理由 “を挙げていた。
ZLUDAが戻ってきたことで、開発者はその理由が何なのかを明らかにすることにした。
Janik氏がZLUDAの開発を始めた当初、同氏はインテルの社員であり、同社にZLUDAを採用するよう社内で働きかけていた。
IntelはJanik氏に対し、評価する間プロジェクトを中止するよう要請したが、開発者が言うように、”IntelはIntel GPU上でCUDAアプリケーションを実行するビジネスケースがないと判断した”。
その後、ジャニクはインテル社を離れ、AMD社と接触し、ZLUDA開発に関する契約を結んだ。
インテルと同様、AMDはZLUDAの評価に時間をかけ、ZLUDAを非公開にするよう求めた。
結局、AMDはインテルと同じ結論に達した。”AMD GPU上でCUDAアプリケーションを実行するビジネスケースはない “と。
その後、ジャニクは契約を解除され、ようやくZLUDAを公に復活させることができた。
しかし、今日のZLUDAは2020年のバージョンとは大きく異なっている。
インテルのoneAPIをベースに構築され、同社のGPUをサポートする代わりに、AMDの競合ソリューションであるROCmをベースとし、Radeon GPUのみをサポートする。
インテルのサポートが打ち切られた理由は完全には不明だが、ZLUDAの2020年リリースがXe以前の統合型グラフィックスしかサポートしていなかったことと関係があるのかもしれない。
2022年にArc Alchemist GPUが登場する頃には、JanikはAMDと協力していた。
さらに開発者は、ZLUDAは「私が個人的に興味を持っているワークロード(DLSS)を実行するためのアップデートを受ける可能性があるだけだ」と述べており、プロジェクトが多かれ少なかれ終了したことを意味している。
Janik氏の最終目標はIntelかAMDからのサポートを得ることだったようだが、この2社が外れたことで、彼は “GPU企業は出尽くした “と語っている。
インテルとAMDが自社のGPUを既存のCUDAエコシステムと互換性を持たせることに興味を持っていないことは、それを物語っている。
CUDAと真っ向から対決するのは、むしろoneAPIやROCmのようだ。
oneAPIやROCmは新しく開発が遅れているが、オープンソースであるという利点がある。
CUDAは、プロフェッショナル向けおよびデータセンター向けグラフィックス・ソフトウェアでは依然として圧倒的に人気のあるソリューションであり、特にNvidiaのGPUが機能と性能でIntelとAMDのGPUをリードし続けるのであれば、それがすぐに変わるかどうかはわからない。
解説:
わたくしも知りませんでしたが、AMDとIntelのGPUでCUDAの互換を提供するソフトウェアがあったようです。
ZLUDAというこのソフトウェアは現在は無償で公開されているようです。
Intel、AMD両社ともに慎重に検討されたあと、放棄されたとのこと。
理由を少し考えてみると、CUDAの互換といえば主な戦場はデータセンターであり、おそらくは十分な性能を出すことができなかったのではないでしょうか。
データセンターではゲーミングPC以上にコスパというものが意識され、消費電力も含めたトータルのコストが高いと選ばれることはまずありません。
そのため、上では需要がなかったと書いてありますが、需要があるが十分な性能を引き出すことができなかったのでしょう。
同世代の製品同士で比較すると当然同程度の性能になるわけで、そこに、CUDAのソフトウェアエミュレーションという余計なオーバーヘッドが入ると当然、性能が落ちます。
落ちた性能で同等製品と競争ができるレベルではなかったのではないでしょうか。
例えばtorch-directmlを考えればわかるのではないでしょうか。
十分な性能がなければだれも使うことはありません。
Radeonで生成AIが一般的ではないのと同じ理由でしょう。
一方でROCm+Radeon Instinctシリーズは性能として(価格を下げれば)nvidiaのシステムに十分競合可能なレベルだったのでしょう。
一度LinuxでROCmを使ってしまうと確かに他の方法で使おうとは全く思わないことだけは確かです。
最終的になかば放棄された形で公開され続けていてるのは何か物悲しさを感じます。
興味のある方は使ってみてはいかがでしょうか。