@Vengineerの戯言 : Twitter
SystemVerilogの世界へようこそ、すべては、SystemC v0.9公開から始まった
Cloud側のAI AcceralatorではHBMが使われていますね。
そのHBMが 2E になって、もっと速くなるというお話かな?
SamsungのHBM2Eは、8個の16Gbit品をスタックして、Peak 410 GB/sの性能。
Google Cloud TPU v2 が 4つのHBMで 600 GB/s、v3 が 900 GB/s なので、かなり速いですね。4つだと、Peat 1640 GB/s ですって。凄い。
後半では4つの HBM2E で 4096bit だと、Peak で 1.64TB/s って書いてあるので同じですね。
DRAMのウェハーのコストが1600ドルで、HBM2Eだと追加で500ドル必要。
HBM3になると、Peak 512GB/s を越え、HBM3+では Peak 4TB/s + Slot 1024GB と。
うー、凄すぎる。。。