その他

「猫も杓子もGPUを買っている」、AIスタートアップの詳細が明らかになったマスク氏の発言

投稿日:

彼の新しいAIベンチャーは別会社になるが、Twitterのデータを使う可能性がある。

イーロン・マスクは、生成型人工知能プロジェクトを開発するためにTwittersの計算能力を高めているのかどうか確認するよう求められた際、彼の会社であるTeslaとTwitterが大量のGPUを購入していることを確認しました。

一方、フィナンシャル・タイムズ紙は、マスク氏のAIベンチャーは彼の他の会社とは別組織になるが、Twitterのコンテンツをトレーニングに利用する可能性があると報じています(新しいタブで開きます)。

Financial Timesによると、イーロン・マスクが今年初めに模索を始めたAIプロジェクトは、彼の他の会社とは別個のものであるが、言語モデルを訓練するためのデータとしてTwitterコンテンツを使用し、テスラのコンピュータリソースを利用する可能性があると伝えられています。

これは、AIプロジェクトがTwitterの一部となると主張した以前の報道とやや矛盾する。

この新しいプロジェクトを立ち上げるために、マスクはDeepMindを含むトップAI企業からエンジニアを募集しており、すでにDeepMindのIgor Babuschkinと他のAI専門家の約半数を迎え入れているとのことです。

また、マスク氏は、最新のAIプロジェクトに資金を提供する可能性について、SpaceXやTeslaの様々な投資家と交渉していると伝えられており、この交渉について直接知る人物によると、このプロジェクトがTwitterの一部となることが決まっていないことを裏付けるかもしれません。

最近のTwitter Spacesのインタビューで、マスクは、Twitterが約1万個のNvidia製コンピュートGPUを調達したとする報道について質問されました。

Muskは、TeslaやTwitterを含むすべての人が、最近コンピュートやAIのためにGPUを購入していると述べ、これを認めました。

これは、MicrosoftとOracleの両社が、AIとクラウドサービスのために、最近の四半期にNvidiaのA100とH100 GPUを何万個も取得していることからも明らかです。

"現時点では、すべての人とその犬がGPUを購入しているように思えます。"とMuskは言った。"TwitterとTeslaは確かにGPUを買っている。"

AIやハイパフォーマンスコンピューティング(HPC)向けのNvidiaの最新GPU「H100」は、かなり高価です。

CDWは、80GBのHBM2eメモリを搭載したNvidiaのH100 PCIeカードを、1台30,603ドルという高値で販売しています。

Ebayでは、この製品が早く欲しい人は、1個あたり4万円以上で売られています。

Nvidiaは最近、さらに強力なH100 NVL製品を発表しました。この製品は、2枚のH100 PCIeカードをブリッジし、それぞれに96GBのHBM3メモリを搭載して、大規模言語モデルのトレーニングに特化した究極のデュアルGPU 188GBソリューションとして設計されています。

この製品は、1台あたり3万ドルを大きく超える価格であることは間違いないが、NvidiaがLLMプロジェクト用に数万枚のボードを購入する顧客に対して、どのような価格でこのようなユニットを販売するかは不明である。

一方、マスク氏の企業帝国におけるAIチームの正確な位置づけは、依然として不明なままである。

Financial Timesは、ネバダ州のビジネス記録を引用して、この有名な起業家は3月9日にX.AIという会社を設立したと報じた。

一方、彼は最近、会社の記録にあるTwitterの名前をX社に変更したが、これは「X」ブランドの下で「あらゆるアプリ」を構築しようとする彼の企みの一部かもしれない。

マスクは現在、X.AIの唯一の取締役であり、たまたまマスクの財産を管理しているジャレッド・バーチャルは、その秘書として記載されている。

イーロン・マスクが2015年に共同設立したものの、現在は関与していないOpenAIのChatGPTの急速な進展に刺激され、ライバル会社のアイデアを模索するようになったと伝えられています。

一方、この新しいAIベンチャーは、この新しいプロジェクトがTeslaやTwitterのフレームワークに制限されないようにするために、おそらく彼の他の会社とは別の事業体となることが予想されます。

ソース:Tom's Hardware - 'Everyone and Their Dog is Buying GPUs,' Musk Says as AI Startup Details Emerge

 

 

 

解説:

バックエンドのGPU争奪戦

今大流行中のAIを高速に実行するには大量の最新GPUが必要になります。

別に最新でなくてもよいですが、パフォーマンスやコストの面でかなりのハンデを追うことになりますので「誰も彼も」GPUを追い求めることになります。

英語だと犬が日本語だと猫でもGPUを欲しがるのでちょっと大変な状況でしょう。

少なくともイーロン・マスクさんの目にはそのように映るようです。(苦笑。

この記事を見たとき、争奪戦に勝った犬と猫が誇らしげにNvidiaの最新GPU「H100」をかざしている姿を想像してクスっとなりました。

一般消費者向けのGPU市場は残念ながら奮いませんが、データセンター向けのGPU市場はAIバブルによって活況を呈しているようです。

AI関連のサービスは翌週には新しいサービスが生まれ、常識が覆っていますので、どの波に乗ったら良いのかわからない状況が続いています。

とりあえずChatGPTなどのメジャーなサービスを使いつつ、マイナーなものに関しては情報だけ集めてヒットしたらいつでも乗れるようにしておいた方がよいでしょう。

当然ですが、日本国内のサービスは泣かず飛ばずで5年後10年後、AI市場は欧米や中国の企業が席巻しているでしょう。

斜陽の国に生きるというのは大変なことです。

工場の労働者が機械化によって多く職を失ったように今後は音楽やイラスト、アニメーション、映画と言った芸能に携わる人たちの多くが職を失うでしょう。

AIは莫大なデータを経験のように蓄積して、その中から帰納法的飛躍(ひらめき)に似た結果を出すことが出来るようになりました。

演算することしかできなかったコンピューターが感性をエミュレートできるようになったということです。

残念ながら、日本でバックエンドのGPU不足が話題にならないというのは完全に乗り遅れているということです。

-その他

Copyright© 自作ユーザーが解説するゲーミングPCガイド , 2024 All Rights Reserved.