引用
To take advantage of the flexibility of the FPGAs architecture
at building very power efficient implementations of CNN Topologies for inference
(i.e. scoring) without needing to become an FPGA expert,
we are offering the Deep Learning Accelerator FPGA intellectual property (IP).
With this IP loaded into the FPGA you are able to leverage Intel® Caffe
in the Data Analytics Acceleration Library (DAAL)
and Intel MKL-DNN to build ALexNet or GoogleNet like topologies
without even requiring a recompilation of the FPGA.
に書いてあるように、
先ずは、
FPGAは、推論側に電力効率が使うんだよ。
学習側でないし、
FPGAを使った速くなるっていってないよ。
速くしたいのなら
GPUを利用したTSUBAME3.0みたいなHPCベースがいいんじゃん。