はじめに
Intel Falcon Shares が GPU only ということでアナウンスされました。
Intel Falcon Shares GPU には、Ethernet Switch が入っている?
下図は、上記の記事の中にあるものです。説明のために引用します。
- Modular Tile-Base Architecture
- Standard Ethernet Switching
- HBM3 & I/O design to scale
- Flexible CPU-GPU ration
- A single GPU programming Interface
- CXL Programming Model
Ethernet Switch は、Gaudi/Gaudi2 から持ってきたのでしょうか?それとも独自開発なのでしょうか? Ethernet Switch が入っているということは、外部にNVIDIA Mellanox ConnectX-? とか HPE Cray の Slingshot が必要無くなり、コストおよび実装面積、消費電力にはいい方向だとは思います。
HBM3は最大で228GB搭載できるということで、24GB x 12 個が妥当な感じです。4 die で 3 個の HBM3 です。MI300 は 3 die で 8 個の HBM3 ですが、IntelにはEMIBという技術があるので Silicon Interposer 無しに HBM3 を接続できます。
CXL へのこだわり
NVIDIA Grace-Hopper では、NVLINK-C2C にて双方向で 900GB/s にて接続しています。
AMD MI300 では、MI300 にて、3 x GPU + 24コアのCPUを Infinity Fabricにて接続しています。
Intel は CPUであるXeonと Falcon Shares GPUとは、業界標準の CXL で接続するということです。CXLはPCIe Gen5相当と考えると、x16 で 片側64GB/s になります。AMD MI250X の Infinity Fabric は片側 50GB/s でしたので、Falcon Shares GPU の各dieからXeonとCLXで接続するのだと、AMD MI250X よりは転送帯域が大きいです。ただし、AMD MI300 では Infinity Fabric の転送帯域はどのくらいになるのかまではわかりません。仮に、AMD EPYC 9400 シリーズの Genoa と同じPCIe Gen5 をサポートするとなると、Xeon と Falcon Shares GPU 間の転送帯域は同じになりそうです。
おわりに
TOP100のCompute NodeのCPUとGPUのバランスにおいて、GPU入りが多くなっているようです。これは今までCPUで処理していたものをGPUに移すことになる、つまり、Intel Xeon の売上が減っているということを意味するのだということになり、今回の Falcon Shares GPU というプロダクトが生まれたのかな?と思います。