Vengineerの戯言

人生は短いけど、長いです。人生を楽しみましょう!

Intel Falcon Shares GPU

はじめに

Intel Falcon Shares が GPU only ということでアナウンスされました。

www.tomshardware.com

Intel Falcon Shares GPU には、Ethernet Switch が入っている?

下図は、上記の記事の中にあるものです。説明のために引用します。

  • Modular Tile-Base Architecture
  • Standard Ethernet Switching
  • HBM3 & I/O design to scale
  • Flexible CPU-GPU ration
  • A single GPU programming Interface
  • CXL Programming Model

Ethernet Switch は、Gaudi/Gaudi2 から持ってきたのでしょうか?それとも独自開発なのでしょうか? Ethernet Switch が入っているということは、外部にNVIDIA Mellanox ConnectX-? とか HPE Cray の Slingshot が必要無くなり、コストおよび実装面積、消費電力にはいい方向だとは思います。

HBM3は最大で228GB搭載できるということで、24GB x 12 個が妥当な感じです。4 die で 3 個の HBM3 です。MI300 は 3 die で 8 個の HBM3 ですが、IntelにはEMIBという技術があるので Silicon Interposer 無しに HBM3 を接続できます。

CXL へのこだわり

NVIDIA Grace-Hopper では、NVLINK-C2C にて双方向で 900GB/s にて接続しています。

AMD MI300 では、MI300 にて、3 x GPU + 24コアのCPUを Infinity Fabricにて接続しています。

Intel は CPUであるXeonと Falcon Shares GPUとは、業界標準の CXL で接続するということです。CXLはPCIe Gen5相当と考えると、x16 で 片側64GB/s になります。AMD MI250X の Infinity Fabric は片側 50GB/s でしたので、Falcon Shares GPU の各dieからXeonとCLXで接続するのだと、AMD MI250X よりは転送帯域が大きいです。ただし、AMD MI300 では Infinity Fabric の転送帯域はどのくらいになるのかまではわかりません。仮に、AMD EPYC 9400 シリーズの Genoa と同じPCIe Gen5 をサポートするとなると、Xeon と Falcon Shares GPU 間の転送帯域は同じになりそうです。

おわりに

TOP100のCompute NodeのCPUとGPUのバランスにおいて、GPU入りが多くなっているようです。これは今までCPUで処理していたものをGPUに移すことになる、つまり、Intel Xeon の売上が減っているということを意味するのだということになり、今回の Falcon Shares GPU というプロダクトが生まれたのかな?と思います。