Vengineerの妄想(準備期間)

人生は短いけど、長いです。人生を楽しみましょう!

XLA Interpreter Backend


TensorFlow XLA。r1.3にて、Pluginが導入されたが、それが名前を変えたみたい。

その名は、

XLA Interpreter Backend


ディレクトリも、plugin 単独から、xla/service の下に interrupter という名前に変わりました。

ディレクトリのファイル名は同じですね。


引用
The XLA Interpreter backend operates at HLO-level by ingesting a HloModule and evaluating the result of the HLO graph directly with HloEvaluator, without lowering it further (to LLVM IR for example) before execution as other backends (CPU and GPU for example) do.

Its key componenets are:

[InterpreterCompiler] despite the inherited naming of "compiler", all InterpreterCompiler really does is the following:
Runs certain HLO optimization passes on the given HLO graph.
Generates an InterpreterExecutable from the optimized HLO graph.
Registers itself in the global compiler factory registry.
[InterpreterExecutable]: responsible for running input HLO graph through the HloEvaluator, allocating output buffer and finally copying evaluated Literal result over.
[HloEvaluator]: traverses a HLO graph and

CPU、GPU、そして、第三のハードウェアとして、Interpreter に。。。

面白くなってきたよ。