はじめに
Google は、下記のTPUを発表
- 推論チップ v1
- 学習チップ v2
- 学習チップ v3
- 学習チップ v4
- 推論チップ v4i
- 学習・推論チップ v5e
AWS は、下記のチップを発表
- 推論チップ Inferentia
- 学習チップ Trainium
- 推論チップ Inferentia2
そして、今週、Microsoft がAIチップとして、Maia 100を発表しました。
また、Microsoft は、Arm CPUコア搭載の Cobalt 100 も発表しました。
x84_64 無しでもOKになった!
AWS は、かなり前からArm CPUコア搭載の Graviton を発表していて、現在は Graviton 3 になっています。
Google も Arm CPUコア搭載チップを開発しているということは、2月にこのブログでも紹介しました。2nd half of 2024 ということなので来年の後半です。
となると、来年後半から x86_64 無しでもOKになっちゃいそうです。
Google/AWS/Microsoft がカスタマーに対しては、
をサービスとして提供することはあるとは思いますが、コストを考えると自社開発のチップを使った方がいいよ、とアピールすると思います。既に、Google が TPU v5e のコスパの良さをうっています。
GPU 無しでもOK
そして、AIアクセラレータを持っているので、GPUが無くてもOKとなります。
NVIDIAのGPUが品薄になったと言えども、今までのビックユーザーである Google/AWS/Microsoft/(Meta) にはそれなりの数のGPUは収めているとは思うのですが、足りない部分は自社開発のAIアクセラレータを積極的に使っていくことになると思います。
おわりに
も利用されていくと思います。
となると、Intel CPU はどうなるんでしょうか? そして、2025年予定の Falcon Shares はどうなるのでしょうか? いよいよ、Intel の終わりの始まりでしょうか?
下記の記事でも
We will compare its performance / TCO versus AMD MI300X, Nvidia H100/H200/B100, Google’s TPUv5, Amazon’s Trainium/Inferentia2.
と比較しているので、読んでみたいですが、有料サブスクでしか読めません。