Vengineerの戯言

人生は短いけど、長いです。人生を楽しみましょう!

TensorRT 4.0



今までは、3.0.4 。


ただし、現時点では、RC。

ハイライトを引用します
 ・45x higher throughput vs. CPU with new layers for Multilayer Perceptrons (MLP) 
                                                  and Recurrent Neural Networks (RNN)

 ・50x faster inference performance on V100 vs. CPU-only 
                                     for ONNX models imported with ONNX parser in TensorRT

 ・Support for NVIDIA DRIVE™ Xavier - AI Computer for Autonomous Vehicles

 ・3x inference speedup for FP16 custom layers with APIs for running on Volta Tensor Cores

ONNXモデルは、CPUでの実行に比べて、V100だと、50倍だって。

また、Xavier もサポートするって。

そんでもって、Volta Tensor Coresを使うと、FP16のカスタムレイヤーの推論は3倍だって。って、カスタムレイヤーって何?