Vengineerの戯言

人生は短いけど、長いです。人生を楽しみましょう!

Intel NNP-I


先日発表になった、Intel NNP-I も Ice LakeベースのチップとICHを1パッケージ化。
Intel Puts 10nm Ice Lake CPUs on an M.2 Stick, Meet the Nervana NNP-I Accelerator

Nevanaの技術を使っていると思っていたら、Ice Lakeベースのx86-64コア + アクセラレータを1チップ化とは。

IntelIntel® Nervana™ Neural Network Processorsにも書いてありました。

    NNP-I 1000 is expected to deliver industry leading performance per watt on real production workloads 
    and is built on Intel’s 10nm process technology with Ice Lake cores to support general operations 
    as well as neural network acceleration.

NNP-IとIce Lakeのチップサイズをみると、NNP-Iの方が大きいですよね。

NNP-Iは、Ice LakeからGPUとGraphics関連を削除して、アクセラレータを入れたみたいですが、
GPUよりもアクセラレータの方が大きいんですね。。。

Ice Lakeベースであれば、その部分は x86-64のMKLDNNが使えて、アクセラレータ部分を追加すればいいのね。

[https://www.intel.ai/vnni-enables-inference/#gs.novabh Vector Neural Network Instructions Enable Int8 AI Inference o
n Intel Architecture]にあるように、VNNIって、Ice Lake にも載っているんですよ。

引用
 Sunny Coveは、
 ディープラーニングベースのAIをより効率よく実現する新命令セット
 「VNNI (Vector Neural Network Instructions)」にも対応し、
  OpenVINOなどの開発ツールを利用したPC向けAIアプリケーションが期待される。


この記事によると、
  Intel Deep Learning Boostは、
  VNNI(Vector Neural Network Instruction)と呼ばれるXeon Phiでサポートされていた命令セットを含んでおり、
  より効率よくディープラーニング(深層学習)の推論が行なえるようになるという。

ということで、Intelは、Xeon Phiで導入したVNNIを Xeon => Core i => NNP-I に投入して、
x86-64ベースのMKLDNNの共通ライブラリとして使えるようにしたんだね。

で、NNP-I のアクセラレータは MKLDNN で利用しやすいものになっているのだと、

妄想


しています。


関連ブログ
2019年3月18日、Intel NNP-L と NNP-I