Vengineerの戯言

人生は短いけど、長いです。人生を楽しみましょう!

PyTorch + XLA のソースコードが公開された


水曜日(11/14、埼玉県民の日)に、PyTorch + XLA のソースコードが公開された模様。


README.mdによると、次の3つのケースでできる模様。
 ・Run on CPU using the local client:

  $ export XLA_USE_XRT=0 export XLA_GRPC_HOST="" XLA_PLATFORM="CPU"

 ・Run on CPU using the XRT client:

  $ export XLA_USE_XRT=1 XRT_DEVICE_MAP="CPU:0;/job:localhost/replica:0/task:0/device:XLA_CPU:0" XRT_WORKERS="localhost:0;"

 ・Run on TPU using the XRT client:

  $ export XLA_USE_XRT=1 XRT_DEVICE_MAP="TPU:0;/job:tpu_worker/replica:0/task:0/device:TPU:0" XRT_WORKERS="tpu_worker:0;grpc://localhost:51000"

最初のが、CPUのXLAにて実行する場合。
2番目が、XRT経由でXLAを利用して、CPUのXLAにて実行する場合、
3番目が、XRT経由でXLAを利用して、TPUのXLAにて実行する場合

で、XRT って、何でしょうか? 2018/9/4(火)にこのブログに書いた、TensorFlow XLA : XRTです。

そう。Julia が TPU を利用したこと方法と同じ。
これ : (AUTOMATIC FULL COMPILATION OF JULIA PROGRAMS AND ML MODELS TO CLOUD TPUS)

さわりの部分をPDFで共有しました。これ