Vengineerの妄想(準備期間)

人生は短いけど、長いです。人生を楽しみましょう!

HBM3で24GB

はじめに

SK hynix が HBM3 で 12 stacks 、24GB品のサンプルを始めたようです。

news.skhynix.com

NVIDIA H100 に、120GB が出るね!

SK hynixは、NVIDIA H100用にHBM3を供給しています。

news.skhynix.com

今まで、HBM3はHBM2eと同様に 8 stacks、16GB品まででした。これにより、NVIDIA H100では 6個のHBM3なので、96GB。その内、5個が通常有効なので80GBでした。今回の 12 stacks、24GBを使うことで、1.5倍になり、144GB/120GB になります。

これにより、NVIDIA DGX H100では、80GB x 8 = 640GB から 120GB x 8 = 960GB となり、ホスト側のDRAM、2TB の約半分となりますね。

2023年4月22日のブログで、H100 120GB の存在について書いたので、PCIe 版で HBM3 120GB は存在しているっぽいですね。

vengineer.hatenablog.com

おわりに

HBM3は 16 stacks までは行けそうなので、32GB品もいづれ出てくるんでしょうね。

関連記事 www.anandtech.com

おわりに