TensorFlow Liteで GPU 利用で、推論が速くなるというもの。
あたしのブログでは、
2019年1月21日、TensorFlow LiteでGPUが使えるようになった
2019年4月2日、TensorFlow LiteのGPUのソースコードが公開されたよ
2019年4月8日、TensorFlow LiteのGPUコードを眺めてみた
2019年1月21日、TensorFlow LiteでGPUが使えるようになった
2019年4月2日、TensorFlow LiteのGPUのソースコードが公開されたよ
2019年4月8日、TensorFlow LiteのGPUコードを眺めてみた
TensorFlow Liteのコードは、
//////// // Set up interpreter. auto model = FlatBufferModel::BuildFromFile(model_path); ops::builtin::BuiltinOpResolver op_resolver; std::unique_ptr<Interpreter> interpreter; InterpreterBuilder(*model, op_resolver)(&interpreter); //////// // NEW: Prepare GPU delegate. auto* delegate = TfLiteGpuDelegateCreate(/*options=*/nullptr); if (interpreter->ModifyGraphWithDelegate(delegate) != kTfLiteOk) return; //////// // Run inference. WriteToInputTensor(interpreter->typed_input_tensor<float>(0)); if (interpreter->Invoke() != kTfLiteOk) return; ReadFromOutputTensor(interpreter->typed_output_tensor<float>(0)); //////// // Clean up. TfLiteGpuDelegateDelete(delegate);