Juliaのページなんだけど、下の方まで読んでいくと、いろいろ書いてあったよ。
引用 We expect to see these developments coming from several angles. Graph IRs and formats like XLA, ONNX and NNVM are becoming ever more sophisticated and will likely take more inspiration from traditional language design, perhaps even adding surface syntax to become fully-fledged programming languages.
うむうむ、
引用 TensorFlow’s XLA has started a push towards special-purpose compiler stacks that now includes TVM, DLVM, myelin, and other ongoing work.
XLA、ハイハイ、調べましたよ。
TVM、ハイハイ、調べていますよ。
DLVM、ハイハイ、論文アップデートされましたね。
NIPS17のプレゼン資料も公開されましたね。でも、まだソースコード公開されていませんね。
TVM、ハイハイ、調べていますよ。
DLVM、ハイハイ、論文アップデートされましたね。
NIPS17のプレゼン資料も公開されましたね。でも、まだソースコード公開されていませんね。
え、Myelin - Neural network JIT compiler、何?
Pythonのニューラルネットワークモデルをx86のアセンブラにJITで変換。ということは、XLA JITのCPU版のようなもの?
国産DeepLearningライブラリの Merlin.jl
Pythonのニューラルネットワークモデルをx86のアセンブラにJITで変換。ということは、XLA JITのCPU版のようなもの?
国産DeepLearningライブラリの Merlin.jl
なんかその後にもいろいろ書いてあるので、調べるの、増えてきた。。。。。困った。