Vengineerの妄想

人生を妄想しています。

AWS/Microsoft/Google と NVIDIA/Intel/AMD

はじめに

日曜日の半導体チップ雑談用に。

プラットフォーマー(AWS/Microsoft/Google)が、CPU/Accelarator/Network Chipを開発するようになった。

AWS/Microsoft/Google

AWS/Microsoft/Googleの状況

  • AWS
    • CPU : Graviton 4 (Neoverse V2 x 96)
    • Accelarator : Trainium 2
    • Network Chip : Nitro (400Gbps)

Trainium2 は、Graviton 4と接続して使っているとか、そして、Nitroも入っていると考えると、NVIDIAのDGX H100/H200/B200 みたいなものでしょうかね。

  • Microsoft
    • CPU : Cobalt 100 (Neoverse N2 x64 x 2)
    • Accelarator : Maia 100
    • Network Chip : Boost DPU

Cobalt 100 が Neoverse N2 なので、軽い処理用にいっぱいのコアという感じなんでしょうか? そして、Maia 100用には、x86_64を使う前提。Boost DPU はどのぐらいで動いているのでしょうか?今更、200Gbpsはないと思うので、最低400Gbpsでしょうね。

  • Google
    • CPU : Axion (Neoverse V2 x 72)
    • Accelarator : TPU v6e
    • Network Chip : Intel E2000 (200Gbps) (Intel と共同開発)

Axionは、Neoverse V2ですが、MicrosoftCobalt 100のような位置付けですね。TPUは、x86_64前提。Infraも強いGoogleの印象ですが、Network Chipは自社で開発しないのでしょうかね。TPU間は、BroadcomのNetwork技術を使っているので、その辺を考慮しているのでしょうか?

NVIDIA/Intel/AMD

プラットフォーマーにモノを収めている、NVIDIA/Intel/AMDは?

  • NVIDIA
    • CPU : Grace (Neoverse V2 72 x 2)
    • Accelarator : H200/B200
    • Network Chip : ConnectX-7(400Gbps)/ConnectX-8(800Gbps)

NVIDIA GB200 シリーズで x86_64を使わなくてよくなりました。Mellanox を買収したのは、今となっては超重要でした。

  • Intel
    • Xeon 6 : Granite Rapids/Sierra Forest
    • Accelarator : Gaudi 3
    • Network Chip : E2000(200Gbps) (Googleと共同開発?)

Xeon 6でコア数が128コアまで増えたのは大きいですね。Accelarator の Gaudi 3の次が気になるとことです。問題は、Network Chipです。

  • AMD
    • EPYC Zen5/Zen5c
    • Accelarator : MI300X/MI325X
    • Network Chip : Pensando DPU Salina (400Gbps)

MI300X/MI325Xは、NVIDIA H100/H200相当。Network Chipも400Gbps。ということで、こちらも、NVIDIA DGX H100/H200 程度

AMDには、MI300Cという、HBM3e版のEPYCがあります。こちらは、Microsoftが採用しました。

おわりに

CPU以外ではNVIDIAが一歩先を行き、その後を AWS/AMD、そして、IntelGoogleMicrosoftという感じになっているでしょうか? 全部が強いところはありませんが、NVIDIAが2026年に出してくる、Vera が IntelXeonAMDのEPYCに対してどのぐらいになるかが気になります!

そして、Intel/Google の Network Chip。こちらはかなり遅れている感じです。。。。

関連ブログ

vengineer.hatenablog.com