自作PCユーザーがゲーム用PCの解説をします

自作ユーザーが解説するゲーミングPCガイド

AIブームがAMDとインテルの次期チップを弱体化させた可能性: Strix APUはもともとCPUとiGPUの性能を高める大きなキャッシュを持っていた

投稿日:

最近のAIブームは、AMDやIntelなどのチップメーカーが他のコアIPよりもNPUを優先させたため、いくつかの次期SOCに弱体化をもたらした可能性がある。

マイクロソフトのAI機能の高速化要求は、NPUが他の側面よりも優先されるため、AMDとインテル陣営全体でSOCの深刻な機能低下を招く

最近、すべてのチップメーカーがそれぞれのチップとプラットフォームの能力について話しており、PCセグメントでAIが爆発的に増加している。

このセグメントを牽引しているのは、さまざまなソフトウェア・イノベーションと、AI機能をサポートするために多額の要件を備えたマイクロソフトのWindows・Copilotである。

チップメーカーは現在、AIブームに大きく賭けており、一部のチップメーカーは従来のチップ開発計画から外れて、今年後半に市場に投入される最新SOCの他の部分よりもAIを優先しているようだ。

Anandtechフォーラムで、メンバーのUzzi38が、今年後半に発売されるAMDのStrix Point APUは、当初、我々がまもなく手にすることになるチップとはかなり異なるものになる予定だったと 報告している。

AMDが3倍速NPU “XDNA 2 “のAI性能のために大規模なAI Engineブロックを搭載する前は、このチップには大規模なSLC(System-Level-Cache)が搭載されており、CPU(Zen 5)とiGPU(RDNA 3+)の両方の性能が大幅に向上していたはずだと言われている。

しかし、それはもう実現していない。

この件に関して、Uzzi氏に返信したadroc_thurston氏によって、Strix 1またはStrix Pointモノリシックには、それが削除される前に一度16MBのMALLキャッシュが搭載されていたという続報が発表された。

インテルはまた、AI PCセグメントをターゲットとする予定のArrow Lake、Lunar Lake、Panther Lakeチップに投資している。

これらのAIブロックは、より高いコア数、より高いiGPU数、より広いキャッシュなど、他の部分に充てることができたはずの貴重なダイスペースの大部分を占めることになるが、AI PCの流行により、チップメーカーは標準的なCPU/iGPU性能に後回しになり、NPU側に重点を置くようになったようだ。

一方、Lunar LakeはMeteor Lakeの3倍のAI NPU性能を提供し(~35 TOPs)、Panther Lakeはさらに倍増する(~70 TOPs)。

今のところ、AIバブルが崩壊するまでは(すぐには起こりそうにないが)、AMDやインテルなどのチップメーカーは、より高速なNPUを追加することにリソースを割くようだ。

次世代SOCのCPUやGPUの改良はまだ続くだろうが、もしこれらの企業がNPU以外の部分に注力していたらどうなっていたかという未開拓の可能性は常に存在する。

2024 AI PCプラットフォーム

ブランド名 Apple Qualcomm AMD Intel
CPU名 M3 Snapdragon X Elite Ryzen 8040 “Hawk Point” Meteor Lake “Core Ultra”
CPU
アーキテクチャー
ARM ARM x86 x86
製造プロセス 3nm 4nm 4nm 7nm (Intel 4)
最大CPU
コア数
16 Cores (MAX) 12 Cores 8 Cores 16 Cores
NPU
アーキテクチャー
内製 Hexagon NPU XDNA 1 NPU Movidius NPU
合計AI
処理性能
18 TOPS 75 TOPS
(ピーク時)
38 TOPS
(16 TOPS NPU)
34 TOPS
(11 TOPS NPU)
GPU
アーキテクチャー
In-House Adreno GPU RDNA 3 Alchemist
Arc Xe-LPG
最大GPU
コア数
40 Cores 不明 12 Compute Units 8 Xe-Cores
GPU
演算性能
不明 4.6 TFLOPS 8.9 TFLOPS ~4.5 TFLOPS
サポートメモリ
(最大)
LPDDR5-6400 LPDDR5X-8533 LPDDR5X-7500 LPDDR5X-7467
発売時期 2024Q4 2024中頃 2024Q1 2023Q4

ソース:wccftech – AI Craze May Have Nerfed AMD’s & Intel’s Upcoming Chips: Strix APUs Originally Had Big Cache Which Boosted CPU & iGPU Performance

 

 

 

解説:

NPUが座するところに本来あるべきだったもの。

ゲーマーにとってはショックな話。

NPUが搭載される位置にに本来あるべきだったものは大容量のキャッシュだったという話です。

こちらは致命的なゲーム性能の低下をひき起こすとだけいっておきます。

わたくしの描く未来予想図に大きな影を落としたといってもよいです。

今ではAMD、nVIDIAのGPUには大容量キャッシュの搭載が当たり前になっていますが、近代のGPUで最初に大容量キャッシュを搭載したのはRX6900XTです。

RX6900XTの本来の仕様でのメモリ帯域幅は512GB/sですが、インフィニティキャッシュの効果を見込んだ実効メモリ帯域幅は「1.987TB/s×58%+512GB/s×42%=1.36TB/s」と言われています。

※ 4Gamerのテクニカルライター西川氏の計算を引用しています。

この大容量キャッシュがいかに恩恵があるのかよくわかるのではないでしょうか。

Ryzen X3Dに搭載されている3D V-CacheもゲームのFPSの向上に大きな効果があります。

つまり、大容量キャッシュとはゲーム性能を底上げする必殺の武器といっても差し支えなかったということです。

Zen4のRyzen 7 8700GのSP数は768でしたが、こちらはDDR5で引き出せる最大の性能なのだと思います。

Strix Pointでは1024SPになっていますが、本来あるべき大容量キャッシュの代わりにNPUが搭載されたならば、おそらくはあまりRadeon 780Mと変わらない性能になってしまったのではないかと思います。

非常に残念な話ですが、APUがもたらすゲーミングPCの低価格はかなり遠のいたといってもよいです。

対して、現時点でAIがもたらすパーソナルコンピューティングの変化というものの具体的な未来図を各メーカーともに明示できていませんし、NPUでpytorchやtensorflowがネイティブに動くところまで行っていません。

※ここでいうネイティブ動作とはpytorchやtensorFlow公式がネイティブで動くバイナリを公開しているかどうかと定義します。

こんな絵にかいた餅のためにソフト的な対応が必要なく効果が発揮される大容量キャッシュがオミットされたのは残念の極みです。

 

 

  • B!