Panther Lakeはまもなく工場に向かう。
インテルの第4四半期決算説明会で、CEOのパット・ゲルシンガー氏(via Seeking Alpha)は、Panther LakeのAI性能は次世代Arrow LakeやLunar Lakeプロセッサーよりも2倍向上することを目標としており、最高のCPUと競合することになると明らかにした。
ゲルシンガー氏はまた、Xeon Clearwater Forestプロセッサーがすでに工場に入っていることも確認した。
「コア・ウルトラ・プラットフォームは現在、リーダー的なAI性能を発揮しており、今年後半に発表される次世代プラットフォーム、Lunar LakeとArrow LakeはAI性能を3倍に高めます。2025年にPanther Lakeが登場すれば、AI性能はさらに2倍まで向上するでしょう」と、ゲルシンガー氏はインテルの第4四半期決算説明会で述べた。
Panther LakeはMeteor Lakeと比較してAI性能の目覚ましい向上をもたらすが、この5倍の性能向上のほとんどはArrow LakeとLunar Lakeによるものだ。
この2つのCPUはMeteor Lakeより3倍高速で、さらにPanther Lakeはその性能を2倍にし、Meteor Lakeの5倍の性能向上をもたらす。
ゲルシンガー氏はまた、Arrow LakeとLunar Lakeの発売時期を2024年とし、Panther Lakeはまだ2025年に登場すると繰り返した。
インテルがこのようなハイペースなリリース・スケジュール(インテルがこれを守れるのであればの話だが)を毎世代AIにおける積極的な性能向上と組み合わせることは、インテルがコンシューマー向けAIハードウェアにおいて強力な競争相手になる可能性が高いことを意味する。
確かに、AMDがRyzen 7040シリーズPhoenix APUからRyzen 8040シリーズHawk Point APUへ60%の性能向上を達成したことは、少し古めかしく感じられる。
「我々は、ゲート・オールアラウンドとバックサイド・パワー・デリバリーの両方を単一のプロセス・ノードに組み込んだ業界初の企業であり、後者は予想外に競合他社より2年先行している。インテル20AをリードするArrow Lakeは今年発売される予定です。インテル18Aは24年後半に製造準備が完了する見込みで、4年間で5ノードを完成させ、プロセス・リーダーシップに返り咲きます。サーバー向けの最初のインテル18A部品であるクリアウォーター・フォレストはすでに工場に出荷され、クライアント向けのPanther Lakeもまもなく工場に出荷される予定です。」
このAI性能は、Panther Lakeがインテル18Aノードを採用していることもあり、従来のCPUの性能と効率は少なくともそれなりに向上すると予想される。
18AはArrow Lakeの20AプロセスやLunar LakeのTSMC 3nmプロセスよりも大幅なアップグレードを実現するはずだが、どの程度かはまだわからない。
また、アーキテクチャの改良がどの程度インパクトのあるものになるかを言うのも難しい。
一方、クリアウォーター・フォレストはすでにテープアウトされ、工場に導入されている。
新しいLinuxパッチによると、XeonチップはDarkmont Eコアを活用すると報告されている。
Panther Lakeは昨年9月に正式に発表されたばかりであるため、このCPUに関するその他の詳細は不明だ。
高出力のArrow Lakeや効率重視のLunar Lakeの後継となる可能性が高い。
最初はLunar Lakeの後継として発表された。
それでも、ゲルシンガー氏によるPanther LakeとArrow Lakeの比較や、Panther Lake-Sの可能性を示唆するリーク情報は、2021年と2022年のAlder LakeとRaptor Lakeのように、次期CPUが市場全体を扱うことを暗示している。
解説:
PantherLakeはMeteorLakeの5倍のAI性能を持つ。
今トレンドのAI/MLに関して、PantherLakeは2世代で5倍という刺激的な数字を出してきています。
正直、わたくしにはピンとこない性能であり、期待できる新しい用途があるのでしょうか。
わたくしは画像生成AIのリアルプレイヤーで、具体的にそこにどんな影響があるのかが明示されない限りはあまり魅力を感じないという立ち位置であることは説明しておきます。
この点についてはXでもさんざんツイートしています。
実際にとあるStable Diffusion XLの無償で公開されているモデルデータがどのような手間で作られているのか少し紹介します。
「SDXL モデルデータ おすすめ」などで検索すると必ず真っ先に名前が挙がる著名なモデルデータです。
2x A100 GPUと80GBメモリで21日間(500GPU時間以上)トレーニングされました。
いかがでしょうか?
無償で公開されているので忘れがちですが、今のローカルにインストールする画像生成AIでStable Diffusion系列のソフトウェアが主流をなしてているのはこのように莫大な労力と資金をつぎ込んで無償で大量のモデルデータを公開してくれている・個人・組織の血と汗の結晶であり、それを無視して「新しいアルゴリズムで新しいデータ形式を使って、100倍の性能になりました。旧来のモデルデータからは一部変換もできます」と言われても移行する気になれませんし、ないのと同じです。
モデルデータを公開してくださっている方は基本、無名ですし、権利関係の法整備が済んでいないないため、やり玉に挙がりがちです。
また、そのグレーさから一般社会から感謝も称賛も受けることは基本ないです。
しかし、彼らのように努力してくれる人がいない場所には誰も集まってきません。
報われない役割を買って出てくれる無名の大勢の人たちがいて初めて成り立っているものです。
たとえ大企業だったとしても、何ら労力をかけずに出した技術がこの世界を席巻することは難しいと言わざるを得ないでしょう。
こうしたことがリアルプレイヤーではない人たちには理解できないのでしょう。
確かにNPUの進化はすごいです。
しかし、その価値をどこに見出すのかでいえば、今あるAI用のモデルデータを使って飛躍的に速度を上げるか、全く新しい用途に使うのであれば、具体的に社会を変革するような大きなムーブメントを起こせるというわかりやすい図式を明示してほしいところです。
例えばTensorRTはかなり画像生成AIを高速化しますが、たとえnVIDIAの技術であってもそれまでのレガシーな資産がそのまま使えないのであれば、それは意味がないです。
もしこの図式を覆すのであれば上で挙げた
2x A100 GPUと80GBメモリで21日間(500GPU時間以上)トレーニングされました。
この労力を1/100に縮めるくらいのことはできないと無理じゃないかなと思います。
この世界LoRAの作成を高速化をするためだけにわざわざWSL2経由でStableDiffusionを使う人たちがいるくらいなので。
異論がある人もいるでしょう。
画像生成AIの1リアルプレイヤーの意見としてここに述べておきます。
なお、念のためにお断りしておきますが、Intel社やその製品を攻撃する意図はありません。
第14世代intelCore i5/7/9シリーズ
※ 末尾にFがついているモデルはGPUがありませんのでご注意ください。