この日本語訳がアップされました。
引用 この記事は Google XLA チームおよび TensorFlow チームによる Google Developers Blog の記事 "XLA - TensorFlow, compiled" を元に翻訳・加筆したものです。詳しくは元記事をご覧ください。
ポイントは、 1)、合成可能な演算をまとめてパフォーマンスを改善 2)、徹底した特化処理による実行サイズの削減 3)、異なるバックエンドや装置のサポート です。
で具体的にはどうやっているのかは、ソースコードを追っていかないとわからないのですが。
また、2017 European LLVM Developers Meeting/March 27-28, 2017で
XLA: Accelerated Linear Algebraという発表があるようです。
XLA: Accelerated Linear Algebraという発表があるようです。
引用 We'll introduce XLA, a domain-specific optimizing compiler and runtime for linear algebra. XLA compiles a graph of linear algebra operations to LLVM IR and then uses LLVM to compile IR to CPU or GPU executables. We integrated XLA to TensorFlow, and XLA sped up a variety of internal and open-source TensorFlow benchmarks by up to 4.7x with a geometric mean of 1.4x.
TensorFlow XLAのソースコードが公開されてから、頑張って、追ってみました。
TensorFlow XLAに関してはスライド形式でまとめました。
このスライドベースに皆さんにTensorFlow XLAの中身を説明したいと思います。
さて、どこでやればいいのだろうか?