はじめに
Al Cloud Chip をまとめてみます。
の5社を取り上げます。 何故?Startupを取り上げないのかは、TSMC N7/N6 => N5/N4 => N3 に移行しているものの、 この記事を書いた時は、Startup は N7 までだからです。SambaNova SystemsとCerebras SystemsはN5のプロダクトを出してきましたが。
さっくとまとめると、
- NVIDIA : A100-80GB (N7) => H100-80GB, GH200-96GB, GH200-141GB, H200-141GB (N4) => B100/B200-192GB (N4P)
- AMD : MI250X-128GB (N6) => MI300X-192GB (N5/N6) => MII350-288GB (N4) => MI400-??GB (N?)
Intel Habana : Gaudi 2-96GB (N7) => Gaudi 3-128GB (N5)
Google : TPU v4-32GB/v4i-8GB (N7), v5p-32GB.v5e-16GB (N5)
- AWS : Inferentia-8GB (N?)/Inferentia2-32GB, Trainium-32GB / Trainium 2-??GB, Inferentia3 (N?)
NVIDIA, AMD, Intel Habana は、メモリをたくさん積む方向へ進んでいます。一方、Google TPU と AWS Inferentia/Trainium はメモリ少なめです。
何故?そうなるのかはわかりませんが、どうなんでしょうか?
おわりに
Meta の MTIA, Microsoft の Maia 100 もありますが、まだ、第一段なのでここでは取り上げませんでした。。。
今年は、
がかなりの量、出てくると思います。
下記のXの投稿によると、TSMCの5nmおよび3nmプロセスを使用して100万から150万になるようです。なんか凄いですね。
The Nvidia vs AMD AI chip war will see one clear winner this year, TSMC, which is manufacturing top chips from both firms, media report, saying TSMC’s output of their chips will hit 1 million to 1.5 million, made using TSMC 5nm and 3nm processes. Analysts estimate Nvidia will…
— Dan Nystedt (@dnystedt) 2024年1月8日
結局、一番うれしいのは、TSMC なんですかね。IRの月度売上を見ると、2023年は 2022年よりはマイナスなんですね。
Q4.2023 の決算プレゼンテーション資料を見ると、N5 は増えていますが、N7 は 2022年に比べると、減っているんですね。