Vengineerの妄想(準備期間)

人生は短いけど、長いです。人生を楽しみましょう!

AI Cloud Chipの5社 (NVIDIA, AMD, Intel Habana, Google, AWS)

はじめに

Al Cloud Chip をまとめてみます。

の5社を取り上げます。 何故?Startupを取り上げないのかは、TSMC N7/N6 => N5/N4 => N3 に移行しているものの、 この記事を書いた時は、Startup は N7 までだからです。SambaNova SystemsとCerebras SystemsはN5のプロダクトを出してきましたが。

さっくとまとめると、

  • NVIDIA : A100-80GB (N7) => H100-80GB, GH200-96GB, GH200-141GB, H200-141GB (N4) => B100/B200-192GB (N4P)
  • AMD : MI250X-128GB (N6) => MI300X-192GB (N5/N6) => MII350-288GB (N4) => MI400-??GB (N?)
  • Intel Habana : Gaudi 2-96GB (N7) => Gaudi 3-128GB (N5)

  • Google : TPU v4-32GB/v4i-8GB (N7), v5p-32GB.v5e-16GB (N5)

  • AWS : Inferentia-8GB (N?)/Inferentia2-32GB, Trainium-32GB / Trainium 2-??GB, Inferentia3 (N?)

NVIDIA, AMD, Intel Habana は、メモリをたくさん積む方向へ進んでいます。一方、Google TPU と AWS Inferentia/Trainium はメモリ少なめです。

何故?そうなるのかはわかりませんが、どうなんでしょうか?

おわりに

Meta の MTIA, Microsoft の Maia 100 もありますが、まだ、第一段なのでここでは取り上げませんでした。。。

今年は、

がかなりの量、出てくると思います。

下記のXの投稿によると、TSMCの5nmおよび3nmプロセスを使用して100万から150万になるようです。なんか凄いですね。

結局、一番うれしいのは、TSMC なんですかね。IRの月度売上を見ると、2023年は 2022年よりはマイナスなんですね。

Q4.2023 の決算プレゼンテーション資料を見ると、N5 は増えていますが、N7 は 2022年に比べると、減っているんですね。