はじめに
GoogleからOpenXLAのアナウンスがありました。
下図は上記のブログにある図です。説明のために引用します。TensorFlow, PyTorch, JAX から StableHLO にし、Target-Independ-Optimizer にて最適化し、Hardware Optimizations & Targets の流れになるようです。
この図で対応するTargetは、
- AWS Trainium & Inferentia
- AMD GPU
- Arm CPUs
- Cerenbras WSE
- Google TPU
- Graphcore IPU
- NVIDIA GPU
- x86 CPU
なんで、Arm CPUs だけ、s が付いているんでしょうか。。。。
Youtube & スライド
ここに、OpenXLA に関するビデオがあります。
スライドも見つけました。
Tensorflowとの関係
tensorflow/tensorflow/compiler/xla が xla/xla になった感じですね。
おわりに
XLAを知ったのが、2017年の春、2017年2月20日の「XLAの衝撃」
TensorFlow XLAの衝撃 - Vengineerの戯言
これであたしの人生が変わりました。。。
それから6年、OpenXLA になったという感じですね。
なんか、未来が見えていたのかもしれません。。。*1
*1:笑