はじめに
生成AIにて、NVIDIAのGPUがバカ売れしていますが、そのGPUに使われているメモリが HBM です。
HBMって、どんなメモリなのかを知るための資料としては、下記のPC Watchの後藤さんの記事が一番いいのでは?と思っています。
今回のブログは、上記の記事から、HBM とはどんなものかを学んでいきます。
2014年では、1st Gen HBM
上記の記事は、2014年5月1日です。今から10年前です。なので、HBM も HBM2/HBM3 ではなく、番号無しの HBM です。
SK hynix と AMD の共同資料では、
- Logic Die
- 4 DRAMs (2Gb x 4 = 8Gb = 1GB)
- Interface Width : 1024
- Channles/Die, Channles/Stack = 2, 8
の構成になっています。
Logic Die からは、8 channels が出ていて、各 Die に 2 channels 毎接続しています。
そして、2.5D の インターポーザを使用しています。
2.5D になった理由は、2つ
- 排熱の問題 : 電力消費の大きい高性能GPU/CPU/SoCの熱を、熱に弱いDRAMを通して排熱することが難しい点
- 3D になると、一番下のDieの熱をDRAMを通して排熱することになるため
- プロセス技術面の問題 : 先端プロセス技術は、立ち上げてからTSVが利用可能になるまでかなり時間がかかる
ピン当たりの転送レートは、1~2Gtps 。1024bit なので、128GB/sec (1Gtps時)~256GB/se (2Gtps時)
この時点では、HBMの世代で最大3Gtps を達成できると予測しています。
DRAM Die には、2チャンネルあり各チャネルは 128 I/O (1 DRAM Die では、256 I/O)
おわりに
この記事は、非常に貴重です。この記事では、1st gen HBMの内容ですが、
- HBM2 => HBM2e
- HBM3 => HBM3e
については、動作周波数の向上とチャネル数の増加(各チャネルのI/Oは減少)が大きな変更です。
なので、この資料にある 1st gen HBM についてしっかり学んでおけば、HBM2/HBM2e/HBM3/HBM3e についても学べるということです。
記事の最後に、
2.5D接続の場合は、TSVインタポーザが現状では必須となっている。GPU Technology ConferenceでSK hynixは、有機素材パッケージでの配線も研究しているが現状では提供できないと説明していた。ロジックチップとGPU/CPU/SoCをTSVインタポーザ上に配置して配線する構成となっている。こうした構成であるため、現状のHBMには、ベースロジックダイとTSVインタポーザのコストが加わり、相対的に高コストなソリューションとなっている。
とあります。
TSMCのCoWoSでは、今までは、Silicon Interposer である CoWoS-S が主流でしたが、今後は、CoWoS-R も使われることになります。
10年の歳月にて、HBMは進化しました。今は、HBM3/HBM3e が主流ですが、これから出てくる HBM4 は いままでとちょっと違うものになるかもしれません。