Vengineerの戯言

人生は短いけど、長いです。人生を楽しみましょう!

NVIDIA の CPU (GRACE) のビデオを観て、その後、考えてみたら、、、

@Vengineerの戯言 : Twitter SystemVerilogの世界へようこそすべては、SystemC v0.9公開から始まった 

はじめに

NVIDIAのGRACEのGTC21のビデオを見直してブログに書いたのが5月12日

vengineer.hatenablog.com

そして、昨日、TwitterのTLに、このツイートにコメントが付いてきて流れてきたので、「Perlmutter」 について調べたら、仕様が見つかりました。

その中に、GPUノード内の構成の図(説明のために書きに引用します)もありました。A100が4基NVLinkで接続しています。CPUはAMD EPYC Milano が1基。 性能を考えると4基ではなく、8基にした方がいいと思ったのですが、よく見ると 4基だと、NVSwitch が要らなくなるんですよね。

f:id:Vengineer:20210529092649p:plain

GRACE では?

で、GRACEの場合はどうなるのか?

下図(説明のために引用します)はx86-64GPUのケース。「Perlmuter」と基本的に同じ構成。従って、GPUが4基なので NVSwitch は必要無し。でも、図でのGPUの接続は最上段と最下段の接続が無いように書かれている。。実際は「Perlmuter」と同じような接続になっているはず。

f:id:Vengineer:20210529093033p:plain

では、GRACEではどうなっているのか?下図(説明のために引用します)のように、GRACEは1つのGPUとしか接続していないような感じの絵になっています。

f:id:Vengineer:20210529093425p:plain

前回のブログを書いた時はそれほど疑問には思っていなかったのですが、ボードの部分のところを引用した部分(下図は説明のために引用します)で、NVSwitch が3個載っているとブログに書きました。GPUが4基ならNVSwitchは必要ないですが、GPU4基に加えて、GRACEが4基追加され、NVLinkが付いているデバイスが8基になったということ。 DGX A100 では、GPUが8基、NVSwitchが6個。。。しかしながら、GRACEのビデオではNVSwitchは3個であると想定。

f:id:Vengineer:20210529093519p:plain

この 3個の NVSwitch に GPU だけでなく、GRACEも繋がっていないんじゃないのかな?と思うようになりました。そして、どんな感じに繋がっているかを妄想したのが下図です。 右側は繋がっていませんが、左側と同じように繋がっていると想定しています。

GPU からは12本のNVLinkが出ています。12本の内6本(2本が3組)を NVSwitchに接続し、残りの6本をGRACEに接続。一方、GRACEも12本のNVLinkを持っていて、6本はGPUと接続して残りの6本(2本が3組)はNVSwitchに接続している感じ。これでGPU間、GRACE間の接続も可能。

f:id:Vengineer:20210529100313p:plain

第3世代NVLinkでは12本で300GB/sだったを第4世代NVLinkでは500GB/s(何本かは現状公表されていません)になるということ。。

おわりに

GRACEのビデオで NVSwitch が載っている理由が何となくわかったので今回ブログに残しておくことにしました。 来年か再来年にGRACEの詳細が出てきたときに、この内容がどのくらいあっているかが楽しみです。