AMD、大手クラウドプロバイダー2社にサービスを提供との報道。
ライバルのNvidiaとは異なり、AMDは人工知能(AI)の台頭をまだ大きく活用していないが、クラウドサービスの大手プロバイダーとの大型契約を獲得しそうだ。
オラクルは自社のクラウド・サービスにAMDのAIおよびHPC向けGPU「Instinct MI300X」を採用する予定だと、MT Newswires(Reddit経由)がUBSを引用して報じている。
またIBMは、AIワークロードにAMDのザイリンクスFPGAソリューションを採用する見込みだと、Medium(via Ming-Chi Kuo)が報じている。
UBSが指摘するように、オラクルのクラウドインフラはNvidiaのGPU不足に悩まされており、短期的な成長に影響を及ぼしている。
にもかかわらず、オラクルは楽観的な見方を崩しておらず、2024年までにH100 GPUの導入を大幅に拡大し、代替ソリューションとしてAMDのInstinct MI300Xプロセッサの導入を計画している。
オラクルは、独自のシリコンプログラムを開始することでAIやHPCのGPU不足を回避することは、実現までに数年かかるため行わないことに決めたと報じられている。
その代わりに、同社はAMDのInstinct MI300Xに狙いを定めている。
クラウドの巨人は、2024年初頭にこれらのプロセッサを最初に導入する見込みだ。
AIへの取り組みにおいて、Nvidia以外に目を向けているのはオラクルだけではない。
IBMの新しいAI推論プラットフォームは、TSMCの7nmクラスのプロセス技術を用いて製造されたNeuRealityのNR1 AIチップを使用している。
AMDは、NeuRealityのAIソリューションに不可欠なFPGAコンポーネントを提供することで重要な役割を果たしており、IBMのAI推論プラットフォームによって確立された堅牢なインフラの恩恵を受けることになる。
Foxconnは、この技術を採用したAIサーバーの生産を2023年第4四半期に開始する予定である。
ソース:Tom's Hardware - AMD Scores Two Big Wins: Oracle Opts for MI300X, IBM Asks for FPGAs
解説:
オラクルがクラウドサービスにAMDのMI300Xを採用
利益率900%にも関わらず、世界中で引っ張りだこのnVIDIA H100ですが、あまりに手に入らないので業を煮やしたオラクルがAMDのMI300Xの導入を決定したようです。
オラクルと言えばオラクルLinuxを出しており、LinuxにおけるMI300XやRadeonのAI/MLサポートがさらに充実することを期待したいところです。
実際nVIDIAのH100には購入に長蛇の列ができており、こうしたことを考えるともう1社くらいは同じように使えるレベルの製品があった方が健全だと思います。
さすがに、今の状況は異常だと思います。
私にはピンとこないのですが、IBMの新しいAI推論プラットフォームはNeuRealityのNR1 AIチップを使用しているようですが、こちらにAMDのFPGAが採用されているようです。
傾き過ぎた天秤は修正力が働くものですが、nVIDIAに傾き過ぎたAI界の天秤は各社がAMD製品を導入することが修正力が働いているようです。
Intelにも頑張ってほしいところですが、ハードウェアの完成度で言えばあと2-3世代は後になるのでしょう。
単体GPUもなかなか厳しい世界です。
AMDのGPU Radeonシリーズ
Radeon 7000シリーズ
Radeon RX 6000シリーズ
※ SAPPHIREはAMD Radeon専業のメーカーであり、Radeonのリファレンス的なメーカーです。