Vengineerの戯言

人生は短いけど、長いです。人生を楽しみましょう!

MLPerf 0.6の結果



MLPerf 0.6での結果。

GoogleのCloud TPU と NVIDIA の DGX-2Hたくさんの一騎打ち。。。

下記の画像は、上記記事からの引用です。

https://storage.googleapis.com/gweb-cloudblog-publish/images/Google_Cloud_TPU_v3_Pod_speed-ups_sCUcjjC.max-1200x1200.png

環境と実際の時間は、ここを見ると書いてあります。

Google Cloud TPUは、TPUが16~1024個
NVIDIA DGX-2Hいっぱいは、V100が16~1536個

ImageNet ResNet-50 v1.5の学習が Cloud TPU (1024個)で、1.28分、DGX-2H x96 (V100が1536個)で、1.33分

僅差で、Googleの勝ち。

Mask-R-CNN と NMT が勝っている模様。

TPUが1024個だと、8 Pod だし、V100が1536個だと、DGX-2H が96台だし、
これって、どう考えても普通なら無理ですね。

TPU v8は、8ドル/1時間なので、1.28*1024/60*8=約175ドル。

Cloud TPU対応のモデルは、ここにありますね。