自作PCユーザーがゲーム用PCの解説をします

自作ユーザーが解説するゲーミングPCガイド

AMD Zen 5サポートが5つの新命令で登場 – GNUコンパイラ・コレクションを掲載

投稿日:

AIに特化したAVXVNNI命令は際立っている。

GNU Compiler Collectionが新しいパッチでAMDの次期Zen 5アーキテクチャをサポートし、Zen 5ベースのチップに一握りの新しい命令が搭載されることを示した(Phoronixより)。

このアップデートは、AMDがZen 5の発売に向けて着々と準備を進めていることを示すだけでなく、AMDがその真新しいアーキテクチャをどこに持っていこうとしているのかを示すものでもある。

興味深いことに、コンパイラのアップデートは、Zen 5がZenベースのチップでは見たことのない5つの命令をデビューさせることを示している。

そのうち4つは数年前からインテルのCPUに搭載されているもので、1つは間もなくインテルのサーバー向けCPU「Granite Rapids」に搭載される予定だ。

AMDはインテルほど命令セットのサポートを優先していないようで、特にAVX関連の命令に関してはそうだ。

おそらく5つの命令の中で最も注目すべきは、インテルが2021年のAlder Lake CPUで初めて導入したAVX-VNNIだろう。

VNNIは「Vector Neural Network Instructions」の略で、今日のAIに特化した環境ではますます関連性が高まっている。

AVX-VNNIはAVX512-VNNIと混同しないように、AVX512命令の旗印と比較してより強力である。

どちらの命令も同じ演算を実行できますが、AVX512-VNNIは512ビットベクターとEVEX拡張にアクセスできるため、さらに優れた性能を発揮します。

Zen 4はすでにAVX512-VNNIを搭載しているため、弱いバージョンのサポートを追加することは無意味に思えるかもしれないが、インテルは数年前に同じことを行っている。

非512ビット・バージョンを使用するメリットは、データセンター・プログラムと同じようにAVX512を利用しないソフトウェアを実行できるコンシューマー向けパーツにあるかもしれない。

いずれにせよ、AMDが今後のCPU(コンシューマー向けモデルを含む)でAIに注力し続けることは確かなようで、それほど驚くことではない。

最新のGCCパッチは、Zen 5 CPUのサポートを追加する初めてのものではありません。

Zen 5のコードは昨年7月から少しずつ入ってきており、新しい電力管理機能を追加したLinuxのアップデートもあった。

参考までに、Zen 4のGCCサポートが追加されたのはRyzen 7000プロセッサーがすでに発売された後であり、これをZen 5がすぐそこまで来ているというサインと取るべきではないが、おそらく今年中に発売されるということだろう。

AMDはこれまでZen 5についてほとんど語ってこなかったが、5月に開催されるComputexのプレゼンテーションで沈黙を破るかもしれない。

ソース:Tom’s Hardware – AMD Zen 5 support arrives with five new instructions — GNU compiler collection posted

 

 

 

解説:

CESでStrix Pointの話が出ると思いきや、出なかったのですが、Zen5に搭載される新しいAI関連の命令セットの話が出ています。

結構強力な命令セットのようですが、すでに発表されているAIEと合わせて、早期に実用的に動くソフトが出てほしいところです。

最もIntelのVPUもデモはされていますが、実用的に動くAI関連のソフトウェアが現状存在しないのは同じです。

現時点では、CPUの歴史に残る機能の大部分は眠ったままということになります。

正直に言うとCPUの歴史に残るという変化ならば、同時に我々の価値観を一変させるようなソフトウェアも同時に出していただきたかったところです。

このあたりがオープンソースで展開されることが多い、AI/MLという技術におんぶにだっこで、消費者がいきなり使えるレベルのソフトウェアを用意できない考え方の甘さがにじみ出ていると思います。

かなり酷評ですが、変わったというならば、具体的にどこが変わったのか最終的な製品でアピールできないかぎりエンドユーザーにはわからないです。

一般の消費者というのはそういうものだと思います。

嘘をついているとまでは言いませんが、イメージが先行しすぎて、実態がついてきてないですね。

例えばLLMにしてもやり取りするのはテキストなわけで、これだとデータ量が少ないため、やり取りはネット越しでも十分なわけです。

LLMをローカルにおろしてくる必要性というのはどこにあるのでしょう。

先進的なユーザーだとローカルのLLMにLoRAで特定の人格を作ってAIで合成した音声で会話を楽しむということをしている人もいます。

※わたくしが調べた時点では英語のやり取りのみだったと思います。

しかし、それを行うにはかなりの手間が必要で、現状ではだれでもできるというわけではありません。

それを行うのはメーカーの役割と思いますが、準備はできているのかな?と思います。

ハードだけ用意して、さあどうぞと出してエンドユーザーが自前でgitから引っ張ってくる・・・で許されるような時代じゃもうないので、ワンストップでこれらの機能をエンドユーザーに提供できなればないのと同じです。

AI/MLという技術には未来があると思いますが、今のメーカーの姿勢は完全に終わってると思います。

 

 

 

 

  • B!