Vengineerの妄想

人生を妄想しています。

Intel NNP-L と NNP-I


IntelOCP GLOBAL SUMMITにて、NNP-LとNNP-Iを発表しました


ここかは、NNP-Lと出てきます。

    NNP L-1000 for Deep Learning Training

  ・OCP Accelerator Mezzanine Module

  ・Standard PCIe Module

  ・Leveraga both on-die SRAM and on-package => 写真を見ると、HBM が4個載っています。

  ・Bfloat16 for enhanced performance and convergence

  ・Massive bi-directional data transfer through on an off chip interconnect

とありますね。

展示もしているようで、

https://cdn-ak.f.st-hatena.com/images/fotolife/V/Vengineer/20190803/20190803130556.jpg
https://cdn-ak.f.st-hatena.com/images/fotolife/V/Vengineer/20190803/20190803130550.jpg

PCIe Module の裏面、がっしりしているのに、OCP Module はそうではないのは何か違うのでしょうか?


https://www.servethehome.com/wp-content/uploads/2019/03/Intel-Nervana-NNP-L-1000-Mezzanine-Pinmap.jpg

この写真には、NNP-Lの接続図が載っていて、SerDes 4x4 ICLs が 4組 と Host x16があります。1つの NNP-L は、4つの NNP-L と接続するのですね。

SerDes 4x4で4つのNNP-Lと接続できると、
NVIDIAのV100のNVLinkは6組ですが、4つのV100と接続しているので、基本的には同じようですね。
なので、NVIDIAもOCPモジュール提供して、8個載せられるのでしょうかね。

https://www.servethehome.com/wp-content/uploads/2019/03/Intel-Nervana-NNP-L-1000-Mezzanine-Specs.jpg

この写真によると、消費電力は200Wと425W のようです。

そして、ここからは、NNP-Iが出てきます。

  NNP I-1000 for Deep Learning Inference

  ・Deep Learning by Design
  
  ・Intel 10nm Ice Lake Core

  ・In Production in 2019

こちらは、M.2 module で外部にメモリが無いですね。裏面に載っているのでしょうか?

これら2つのチップは、Intel nGraph によって、利用可能になるようです。