水曜日(11/14、埼玉県民の日)に、PyTorch + XLA のソースコードが公開された模様。
README.mdによると、次の3つのケースでできる模様。
・Run on CPU using the local client: $ export XLA_USE_XRT=0 export XLA_GRPC_HOST="" XLA_PLATFORM="CPU" ・Run on CPU using the XRT client: $ export XLA_USE_XRT=1 XRT_DEVICE_MAP="CPU:0;/job:localhost/replica:0/task:0/device:XLA_CPU:0" XRT_WORKERS="localhost:0;" ・Run on TPU using the XRT client: $ export XLA_USE_XRT=1 XRT_DEVICE_MAP="TPU:0;/job:tpu_worker/replica:0/task:0/device:TPU:0" XRT_WORKERS="tpu_worker:0;grpc://localhost:51000"
最初のが、CPUのXLAにて実行する場合。
2番目が、XRT経由でXLAを利用して、CPUのXLAにて実行する場合、
3番目が、XRT経由でXLAを利用して、TPUのXLAにて実行する場合
2番目が、XRT経由でXLAを利用して、CPUのXLAにて実行する場合、
3番目が、XRT経由でXLAを利用して、TPUのXLAにて実行する場合
で、XRT って、何でしょうか? 2018/9/4(火)にこのブログに書いた、TensorFlow XLA : XRTです。
そう。Julia が TPU を利用したこと方法と同じ。
これ : (AUTOMATIC FULL COMPILATION OF JULIA PROGRAMS AND ML MODELS TO CLOUD TPUS)
これ : (AUTOMATIC FULL COMPILATION OF JULIA PROGRAMS AND ML MODELS TO CLOUD TPUS)
さわりの部分をPDFで共有しました。これ