Vengineerの妄想

人生を妄想しています。

TensorFlow XLAのスライドが大体できましたよ


GoogleがブログでTensorFlow XLAについて、
ちょっとだけ詳しく書いてくれています。


この日本語訳がアップされました。


引用
この記事は Google XLA チームおよび TensorFlow チームによる Google Developers Blog の記事 "XLA - TensorFlow, compiled" を元に翻訳・加筆したものです。詳しくは元記事をご覧ください。

ポイントは、
 1)、合成可能な演算をまとめてパフォーマンスを改善
 2)、徹底した特化処理による実行サイズの削減
 3)、異なるバックエンドや装置のサポート
です。

で具体的にはどうやっているのかは、ソースコードを追っていかないとわからないのですが。

また、2017 European LLVM Developers Meeting/March 27-28, 2017で
XLA: Accelerated Linear Algebraという発表があるようです。
引用
We'll introduce XLA, a domain-specific optimizing compiler and runtime for linear algebra. XLA compiles a graph of linear algebra operations to LLVM IR and then uses LLVM to compile IR to CPU or GPU executables. We integrated XLA to TensorFlow, and XLA sped up a variety of internal and open-source TensorFlow benchmarks by up to 4.7x with a geometric mean of 1.4x.


TensorFlow XLAのソースコードが公開されてから、頑張って、追ってみました。

TensorFlow XLAに関してはスライド形式でまとめました。

TensroFlow XLA : JIT編 (チラ見版)
TensroFlow XLA : AOT編 (チラ見版)
スライドの前半部分を公開しています。

このスライドベースに皆さんにTensorFlow XLAの中身を説明したいと思います。

さて、どこでやればいいのだろうか?