DeepSeekのAIモデルは、ファーウェイの最新Ascend 910Cチップ上で推論ワークロードを実行し、中国のAI産業が過去数ヶ月でどのように進化したかを示していると報告されている。
DeepSeekのAIコンピュート・ポートフォリオにはファーウェイのAscend AIチップも含まれ、推論ワークロードを実行している。
中国のAI企業DeepSeekは、最近発表したR1 LLMモデルが投資家にパニック感を与えて以来、米国の株式市場から2兆ドルを削り取ることに成功したため、ここ数日間で世界のAI市場を混乱させることに成功したのは確かだ。
DeepSeekがR1モデルを訓練するために使用した計算能力に関する主張はかなり物議を醸しているが、@dorialexanderによると、DeepSeek R1はAscend 910Cチップ上で推論を実行しており、この騒動に新たな展開を加えているため、ファーウェイが大きな役割を果たしているようだ。
I feel this should be a much bigger story: DeepSeek has trained on Nvidia H800 but is running inference on the new home Chinese chips made by Huawei, the 910C. pic.twitter.com/6IAgQlQ3ou
— Alexander Doria (@Dorialexander) January 28, 2025
知らない人のために説明すると、ファーウェイのAIチップ「Ascend 910C」は、NVIDIAのAIアクセラレーター「Hopper H100」の直接のライバルになると言われており、今のところファーウェイのチップの具体的な内容は定かではないが、同社は2025年第1四半期に量産を開始する計画で、ByteDanceやTencentといった中国の主流AI企業からの関心を見ていると主張されていた。
ファーウェイのAIチップは、中国ではNVIDIAのハードウェアに代わるトップクラスの製品として知られており、多くの市場シェアを獲得している。
DeepSeekのR1 AIモデル周辺で使用されるコンピューティングリソースは今のところ特定されておらず、その周辺メディアには多くの誤解がある。
第一に、「500万ドル 」という数字は、総トレーニング費用ではなく、最終モデルを実行するための費用である。
第二に、Deepseekは5万台以上のNVIDIAのH100にアクセスできると主張されているが、これは同社が他の対抗AIモデルと同様のリソースを必要としたことを示唆している。
ファーウェイのチップを推論に利用することは、国内企業が十分な量を入手できるだけでなく、NVIDIAの 「カットダウン 」モデルや、違法なソースを通じて入手できるアクセラレーターと比較しても、かなりまともな価格設定であるため、やはり興味深い。
ファーウェイは次世代のAscend AIチップを開発していると言われており、これはチーム・グリーンのBlackwell AI製品に匹敵すると言われており、間違いなく世界的な競争を激化させるだろう。
解説:
中国のAI企業が高性能なLLMを公開してNVIDIAの株価時価総額90兆円が吹き飛びました。
こちらはNVIDIAの中国向けモンキーモデルH800でトレーニングされているといわれています。
ただ、実際には中国に不正に持ち込まれた、H100を使っているようですね。
バイデン政権のゼニゲバ主義がこんなところに影響を与えているようです。
みっともない話ですね。
Deepseek R1はGPT-o1の3%のコストで匹敵する性能に達したといわれています。
で、この推論を行っているのがファーウェイのAscend 910Cであるようです。
※ H100は学習に使用されている。当然のことながら推論よりも学習に莫大なリソースが必要です。
やはり、学習には豊富なソフトウエア環境があるNVIDIA製のGPUが必要であることが明らかになったといってもよいでしょう。
それでも計算リソースが豊富にあるとは言えない中で工夫を重ねて低コストで結果を出したようです。
アメリカの企業が今回のDeepseek R1に追いつくには数か月必要といわれています。
どれほど大きな影響を与えたのかがうかがえます。
最先端のAIは制限されたにも関わらずベンチャーのレベルで結果を出したDeepseekに対して掛け声ばかりで何の結果も出せていない日本と対照的です。
非常に残念ですが、日本がAIで存在感を示すのは難しいのでしょう。
この分野で最先端を走っているアメリカの企業ですら腰を抜かすくらいの結果を出したのですから。