あれ、今日で7月終わり。。。?
Intel、Nervana Systemsを買収して学習用チップの開発を進めていて、そのために、nGraph を開発しているんだけど、
一方で、OpenVINO で、CPU/GPU(Intel内蔵GPU)/VPU(Movidius)/FPGA で推論用ツールを提供している。
一方で、OpenVINO で、CPU/GPU(Intel内蔵GPU)/VPU(Movidius)/FPGA で推論用ツールを提供している。
2種類のツールを開発するのって大変なんだろうけど、どうしてかなー、とずーと思っていましたが、
スライドのタイトル:DISTRIBUTED TENSORFLOW TRAINING WITH INTEL NGRAPH LIBRARY ON INTEL XEON SCALABLE PROCESSORS
nGRAPHでは、ハードウェアとして、
・CPU (x86-64) ・NNP-T (ちょっと前までは、NNP-L でした) ・NNP-I (Ice Lakeベース+アクセラレータ?) ・Intel GPU (このGPUって、内蔵GPUなのだろうか?) ・NVIDIA GPU ・AMD GPUただし、GPUに関しては、別途買収したPlaidML経由
なので、今回のタイトルも XEON SCALABLE PROCESSORS になっているんだと思います。
そして、DISTRIBUTED TENSORFLOW TRAININGということで、AllReduce を速くすることについて書いてあります。
1つの2Sノード(Xeon Platinum 8180)の性能に対して、16個の2Sノードでは、15.4倍速くなったと。かなりスケールしている。。
ということで、OpenVINOはあくまでも推論用エンジンで、nGraphは学習用エンジン。。
となると、NNP-I はどうなる?となりますが、NNP-I は、Ice Lakeベースなので、CPUと同じ考えでOKでは?