はじめに
AMDがInstinct MI200を正式に発表。下記のYoutubeの部分からです。
AMD Accelerated Data Center Premiere Keynote
AMDのサイトは、こちら (日本のサイトには、MI200の情報はまだありませんでした)
Anandtechの下記の記事に詳しく書いてあります。。
このブログでも9月に取り上げています。
Instinct MI200
説明のために下記の画像を引用します。
上記の画像は、OAMのサイズのものだと思います。画像を OAM の Moduleのサイズ 165 mm x 102 mm にしてみたら、真ん中のシリコンの 63 mm x 47 mm でした。 TSMCの Silicon Interposer ( CoWoS : Chip-on-Wafer-on-Substrate ) のサイズ は、3x の ~ 2500 mm2 です。63 x 47 = 2961 mm2 なので 使えません。
記事の下の方にいくと違う画像にて、パッケージのより詳細な写真が載っています。説明のために引用します。
パッケージの上に2つのモジュールが載っているのがわかります。そのモジュールの上に、GPUダイ x 1 + HBM2E x4 が載っています。
ビデオの中で、2.5D Elevated Fanout Bridge (EFB) なるキーワードが出てきます。上記の記事では下図で 2.5D Elevated Fanout Bridge とは何か?説明しています。 説明のために下図を引用します。
左側の Substrate Embedded 2.5D は Intel の EMIB のことを言っているようです。GPUダイとHBM2Eダイ間の接続に Bridge die (Silicon) を使っていますが、その ダイ をどこに置くかです。EMIBの場合はSubstrateに埋め込んでいますが、Elevated Fanout Bridge の場合は、Substrateの上にEFBを載せている感じです。
MI250X と MI250 は違う
Instinct MI200には、MI250X と MI250 の2種類のモジュールがあるようです。
データシート の Coherency Enabled において、MI250 は No、MI250X は Yes になっています。また、AMD Infinity Fabric Link Technology のところに、
With a cache coherency enabled solution using 3rd Gen AMD EPYC™ “Trento” CPU and MI250X accelerators, Infinity Fabric unlocks the promise of unified computing, enabling a quick and simple on-ramp for CPU codes to accelerated platforms.
とあります。特別な 3rd Gen AMD EPYC "Trento" CPU とだけ、MI250X が接続できるようです。この特別な 3rd Gen ADM EPYC "Trento" CPU は一般には販売されていなくて、supercomputer の FRONTIER 用のようです。FRONTIERのサイトのNode情報に
1 HPC and AI Optimized AMD EPYC CPU 4 Purpose Built AMD Radeon Instinct GPU
とあります。
追記)、2024.02.04 この記事を読み返して、Trento CPUは PCIe が Gen4の 16Gbps ではなく、Gen4 ESM の 25Gbps で動いているんじゃないのでは?と思っています。EPYCTrento CPU と MI250X の間のInfinity Fabric も 25Gbps で動いていると。
Whitepaper : INTRODUCING AMD CDNA™ 2 ARCHITECTURE には、CPUとの接続図が載っています。説明のために引用します。
Optimized 3rd Gen AMD EPYC CPU + MI250X x 4 (Infinity Fabricにて接続)、PCIe は 200Gbps NIC との接続に使用
AMD EPYC x 2 + MI250 x 4 (CPUとはPCIeで接続)
MI250 x 8の構成もあります。
おわりに
- NVIDIA は、TSMCのCoWoS を使って、Ampereでは 6個のHBM2Eダイを接続しています。
- Intel は、EMIBを使って、Ponte Vecchio では 8個のHBM2Eダイを接続しています。
- AMD は、2.5D Elevated Fanout Bridge (EFB) を使って、Instinct MI200 では、8個のHBM2Eダイを接続しています。
各社方法が違うところが面白いですね。ただし、NVIDIAはTSMCの技術を使っていますが、IntelとAMDは独自技術になっているところが違います。
追記)、2021.11.21 SC21での実機
It’s here: #HPC #SC21 pic.twitter.com/FZOYzWDZEo
— TiffanyTrader (@TiffanyTrader) 2021年11月16日
追記)、2022.06.19
Always amazing to hold so much computing power in one's hand. The AMD Instinct MI250 OAM module heading out for show and tell. Powering Discovery at Exascale #AMD #Austin #HPC #AI pic.twitter.com/h7Ndb75RhR
— William Myrhang (@wkmyrhang) 2022年6月17日