はじめに
日曜日の半導体チップ雑談用に。
プラットフォーマー(AWS/Microsoft/Google)が、CPU/Accelarator/Network Chipを開発するようになった。
AWS/Microsoft/Google
- AWS
- CPU : Graviton 4 (Neoverse V2 x 96)
- Accelarator : Trainium 2
- Network Chip : Nitro (400Gbps)
Trainium2 は、Graviton 4と接続して使っているとか、そして、Nitroも入っていると考えると、NVIDIAのDGX H100/H200/B200 みたいなものでしょうかね。
Cobalt 100 が Neoverse N2 なので、軽い処理用にいっぱいのコアという感じなんでしょうか? そして、Maia 100用には、x86_64を使う前提。Boost DPU はどのぐらいで動いているのでしょうか?今更、200Gbpsはないと思うので、最低400Gbpsでしょうね。
Axionは、Neoverse V2ですが、MicrosoftのCobalt 100のような位置付けですね。TPUは、x86_64前提。Infraも強いGoogleの印象ですが、Network Chipは自社で開発しないのでしょうかね。TPU間は、BroadcomのNetwork技術を使っているので、その辺を考慮しているのでしょうか?
NVIDIA/Intel/AMD
プラットフォーマーにモノを収めている、NVIDIA/Intel/AMDは?
- NVIDIA
- CPU : Grace (Neoverse V2 72 x 2)
- Accelarator : H200/B200
- Network Chip : ConnectX-7(400Gbps)/ConnectX-8(800Gbps)
NVIDIA GB200 シリーズで x86_64を使わなくてよくなりました。Mellanox を買収したのは、今となっては超重要でした。
Xeon 6でコア数が128コアまで増えたのは大きいですね。Accelarator の Gaudi 3の次が気になるとことです。問題は、Network Chipです。
- AMD
- EPYC Zen5/Zen5c
- Accelarator : MI300X/MI325X
- Network Chip : Pensando DPU Salina (400Gbps)
MI300X/MI325Xは、NVIDIA H100/H200相当。Network Chipも400Gbps。ということで、こちらも、NVIDIA DGX H100/H200 程度
AMDには、MI300Cという、HBM3e版のEPYCがあります。こちらは、Microsoftが採用しました。
おわりに
CPU以外ではNVIDIAが一歩先を行き、その後を AWS/AMD、そして、Intel、Google、Microsoftという感じになっているでしょうか? 全部が強いところはありませんが、NVIDIAが2026年に出してくる、Vera が IntelのXeon、AMDのEPYCに対してどのぐらいになるかが気になります!
そして、Intel/Google の Network Chip。こちらはかなり遅れている感じです。。。。
関連ブログ