最近のAIブームは、AMDやIntelなどのチップメーカーが他のコアIPよりもNPUを優先させたため、いくつかの次期SOCに弱体化をもたらした可能性がある。
マイクロソフトのAI機能の高速化要求は、NPUが他の側面よりも優先されるため、AMDとインテル陣営全体でSOCの深刻な機能低下を招く
最近、すべてのチップメーカーがそれぞれのチップとプラットフォームの能力について話しており、PCセグメントでAIが爆発的に増加している。
このセグメントを牽引しているのは、さまざまなソフトウェア・イノベーションと、AI機能をサポートするために多額の要件を備えたマイクロソフトのWindows・Copilotである。
チップメーカーは現在、AIブームに大きく賭けており、一部のチップメーカーは従来のチップ開発計画から外れて、今年後半に市場に投入される最新SOCの他の部分よりもAIを優先しているようだ。
Anandtechフォーラムで、メンバーのUzzi38が、今年後半に発売されるAMDのStrix Point APUは、当初、我々がまもなく手にすることになるチップとはかなり異なるものになる予定だったと 報告している。
AMDが3倍速NPU "XDNA 2 "のAI性能のために大規模なAI Engineブロックを搭載する前は、このチップには大規模なSLC(System-Level-Cache)が搭載されており、CPU(Zen 5)とiGPU(RDNA 3+)の両方の性能が大幅に向上していたはずだと言われている。
しかし、それはもう実現していない。
この件に関して、Uzzi氏に返信したadroc_thurston氏によって、Strix 1またはStrix Pointモノリシックには、それが削除される前に一度16MBのMALLキャッシュが搭載されていたという続報が発表された。
インテルはまた、AI PCセグメントをターゲットとする予定のArrow Lake、Lunar Lake、Panther Lakeチップに投資している。
これらのAIブロックは、より高いコア数、より高いiGPU数、より広いキャッシュなど、他の部分に充てることができたはずの貴重なダイスペースの大部分を占めることになるが、AI PCの流行により、チップメーカーは標準的なCPU/iGPU性能に後回しになり、NPU側に重点を置くようになったようだ。
一方、Lunar LakeはMeteor Lakeの3倍のAI NPU性能を提供し(~35 TOPs)、Panther Lakeはさらに倍増する(~70 TOPs)。
今のところ、AIバブルが崩壊するまでは(すぐには起こりそうにないが)、AMDやインテルなどのチップメーカーは、より高速なNPUを追加することにリソースを割くようだ。
次世代SOCのCPUやGPUの改良はまだ続くだろうが、もしこれらの企業がNPU以外の部分に注力していたらどうなっていたかという未開拓の可能性は常に存在する。
2024 AI PCプラットフォーム
ブランド名 | Apple | Qualcomm | AMD | Intel |
CPU名 | M3 | Snapdragon X Elite | Ryzen 8040 "Hawk Point" | Meteor Lake "Core Ultra" |
CPU アーキテクチャー | ARM | ARM | x86 | x86 |
製造プロセス | 3nm | 4nm | 4nm | 7nm (Intel 4) |
最大CPU コア数 | 16 Cores (MAX) | 12 Cores | 8 Cores | 16 Cores |
NPU アーキテクチャー | 内製 | Hexagon NPU | XDNA 1 NPU | Movidius NPU |
合計AI 処理性能 | 18 TOPS | 75 TOPS (ピーク時) | 38 TOPS (16 TOPS NPU) | 34 TOPS (11 TOPS NPU) |
GPU アーキテクチャー | In-House | Adreno GPU | RDNA 3 | Alchemist Arc Xe-LPG |
最大GPU コア数 | 40 Cores | 不明 | 12 Compute Units | 8 Xe-Cores |
GPU 演算性能 | 不明 | 4.6 TFLOPS | 8.9 TFLOPS | ~4.5 TFLOPS |
サポートメモリ (最大) | LPDDR5-6400 | LPDDR5X-8533 | LPDDR5X-7500 | LPDDR5X-7467 |
発売時期 | 2024Q4 | 2024中頃 | 2024Q1 | 2023Q4 |
解説:
NPUが座するところに本来あるべきだったもの。
ゲーマーにとってはショックな話。
NPUが搭載される位置にに本来あるべきだったものは大容量のキャッシュだったという話です。
こちらは致命的なゲーム性能の低下をひき起こすとだけいっておきます。
わたくしの描く未来予想図に大きな影を落としたといってもよいです。
今ではAMD、nVIDIAのGPUには大容量キャッシュの搭載が当たり前になっていますが、近代のGPUで最初に大容量キャッシュを搭載したのはRX6900XTです。
RX6900XTの本来の仕様でのメモリ帯域幅は512GB/sですが、インフィニティキャッシュの効果を見込んだ実効メモリ帯域幅は「1.987TB/s×58%+512GB/s×42%=1.36TB/s」と言われています。
※ 4Gamerのテクニカルライター西川氏の計算を引用しています。
この大容量キャッシュがいかに恩恵があるのかよくわかるのではないでしょうか。
Ryzen X3Dに搭載されている3D V-CacheもゲームのFPSの向上に大きな効果があります。
つまり、大容量キャッシュとはゲーム性能を底上げする必殺の武器といっても差し支えなかったということです。
Zen4のRyzen 7 8700GのSP数は768でしたが、こちらはDDR5で引き出せる最大の性能なのだと思います。
Strix Pointでは1024SPになっていますが、本来あるべき大容量キャッシュの代わりにNPUが搭載されたならば、おそらくはあまりRadeon 780Mと変わらない性能になってしまったのではないかと思います。
非常に残念な話ですが、APUがもたらすゲーミングPCの低価格はかなり遠のいたといってもよいです。
対して、現時点でAIがもたらすパーソナルコンピューティングの変化というものの具体的な未来図を各メーカーともに明示できていませんし、NPUでpytorchやtensorflowがネイティブに動くところまで行っていません。
※ここでいうネイティブ動作とはpytorchやtensorFlow公式がネイティブで動くバイナリを公開しているかどうかと定義します。
こんな絵にかいた餅のためにソフト的な対応が必要なく効果が発揮される大容量キャッシュがオミットされたのは残念の極みです。
Ryzen 9000シリーズ
Ryzen 7000X3Dシリーズ
Ryzen 8000GシリーズAPU(GPU内蔵)
Ryzen 5000/4000シリーズ