Vengineerの妄想

人生を妄想しています。

Google/AWS/Microsoft、AIアクセラレータとArmCPU は、x86_64 + GPGPU を駆逐できるだろうか?

はじめに

Google は、下記のTPUを発表

  • 推論チップ v1
  • 学習チップ v2
  • 学習チップ v3
  • 学習チップ v4
  • 推論チップ v4i
  • 学習・推論チップ v5e 

AWS は、下記のチップを発表

  • 推論チップ Inferentia
  • 学習チップ Trainium
  • 推論チップ Inferentia2

そして、今週、Microsoft がAIチップとして、Maia 100を発表しました。

また、Microsoft は、Arm CPUコア搭載の Cobalt 100 も発表しました。

x84_64 無しでもOKになった!

AWS は、かなり前からArm CPUコア搭載の Graviton を発表していて、現在は Graviton 3 になっています。

Google も Arm CPUコア搭載チップを開発しているということは、2月にこのブログでも紹介しました。2nd half of 2024 ということなので来年の後半です。

vengineer.hatenablog.com

となると、来年後半から x86_64 無しでもOKになっちゃいそうです。

Google/AWS/Microsoft がカスタマーに対しては、

をサービスとして提供することはあるとは思いますが、コストを考えると自社開発のチップを使った方がいいよ、とアピールすると思います。既に、Google が TPU v5e のコスパの良さをうっています。

GPU 無しでもOK

そして、AIアクセラレータを持っているので、GPUが無くてもOKとなります。

NVIDIAGPUが品薄になったと言えども、今までのビックユーザーである Google/AWS/Microsoft/(Meta) にはそれなりの数のGPUは収めているとは思うのですが、足りない部分は自社開発のAIアクセラレータを積極的に使っていくことになると思います。

おわりに

だけでなく、Google/AWS/Microsoft

も利用されていくと思います。

となると、Intel CPU はどうなるんでしょうか? そして、2025年予定の Falcon Shares はどうなるのでしょうか? いよいよ、Intel の終わりの始まりでしょうか?

下記の記事でも

We will compare its performance / TCO versus AMD MI300X, Nvidia H100/H200/B100, Google’s TPUv5, Amazon’s Trainium/Inferentia2.

と比較しているので、読んでみたいですが、有料サブスクでしか読めません。

www.semianalysis.com