TensorFlowのPRを眺めていましたら、ありました。
i.MX6 上でTensorFlow Liteを動かすために。
ここにあるのがそう。
tensorflow/contrib/lite/tools/make/build_mx6_lib.sh tensorflow/contrib/lite/tools/make/targets/mx6_makefile.inc
おー、これだけで、できるのか。。。
となると、Zynq や Zynq UltraScale+ MPSoC用にビルドするのも簡単か?
調べてみたら、出てきた。。。
で、これを読んでいたら、最後に、
Full disclosure, I opened this feature request about 1.5 years ago, back when I was more clueless. Also, I have worked at Xilinx for the past 4 years. Just 3 months ago I started as a "Machine Learning Engineer", so now I am very aware of Xilinx's approach in this space.
おっと、話が脱線したが。。。
見つけたよ。Zynqに TensorFlow Lite を動かした人。。。tflite_zynq
で、性能は。。。。
As you can see it takes about 2.8 seconds to run the MobileNet_v1. Specifically I used the MobileNet_v1_1.0_224, which should take 569 million MACs per inference. The Zynq is running at 666 MHz. On an Intel i7-6700HQ, this inference takes ~100 ms.
だって、