Vengineerの妄想(準備期間)

人生は短いけど、長いです。人生を楽しみましょう!

i.MX6 SoCでTensorFlow Liteを使う?


TensorFlowのPRを眺めていましたら、ありました。


i.MX6 上でTensorFlow Liteを動かすために。

ここにあるのがそう。

  tensorflow/contrib/lite/tools/make/build_mx6_lib.sh

  tensorflow/contrib/lite/tools/make/targets/mx6_makefile.inc

おー、これだけで、できるのか。。。

となると、Zynq や Zynq UltraScale+ MPSoC用にビルドするのも簡単か?

調べてみたら、出てきた。。。


あー、これは、FPGAを使って、TensorFLowのアクセラレーションをする方ね。。。

で、これを読んでいたら、最後に、
Full disclosure, I opened this feature request about 1.5 years ago, back
when I was more clueless. Also, I have worked at Xilinx for the past 4
years. Just 3 months ago I started as a "Machine Learning Engineer", so now
I am very aware of Xilinx's approach in this space.

と、質問者は、Xilinxで、Machine Learning Engineer になり、Xilinxのソリューションを紹介していた。(笑)

おっと、話が脱線したが。。。

見つけたよ。Zynqに TensorFlow Lite を動かした人。。。tflite_zynq

で、性能は。。。。
  As you can see it takes about 2.8 seconds to run the MobileNet_v1. 
  Specifically I used the MobileNet_v1_1.0_224, which should take 569 million MACs per inference. 

  The Zynq is running at 666 MHz. On an Intel i7-6700HQ, this inference takes ~100 ms.

だって、