TensorRT 5.1 Windows10 での試し #2

TensorRT 5.1 の Windows10での試し、第2回として、
今回は、 Pytorch 1.0 Object Detection faster-rcnn の試し で使った学習済みモデルを、
TensorRT 5.1 に持って行って実行できるか試してみます。

TensorRT で Pytorch の学習済モデルを使うには、ONNX format にしてから、TensorRT で取り込んんでやれば良いとの事です。

https://docs.nvidia.com/deeplearning/sdk/tensorrt-sample-support-guide/index.html#onnx_mnist_sample 

その前に、 おんちゃんは、TensorRT5.1 で C++ 開発をするにあたり、下記ページを参考にしています。
tensorrt-developer-guide > 2. Working With TensorRT Using The C++ API

なので、先ずは、 Visual Studio 2017 で、
..\TensorRT-5.1.5.0\samples\sampleONNXMNIST\sample_onnx_mnist.sln
を開いて、ソルーションをビルドして、実行できるか試してみます。

すんなりビルドできたので、試しに実行してみました。
VS2017 用 x64 Native Tools コマンドプロンプトから実行しました。

ONNX ファイルをTensorRT でインポートするには、下記ページに記載があります。
tensorrt-developer-guide > 2.2.5. Importing An ONNX Model Using The C++ Parser API

そのあとは、
tensorrt-developer-guide >2.3. Building An Engine In C++

上記、処理を行っている所は、sampleOnnxMNIST.cpp では、 onnxToTRTModel() にあります。

パラメータ、 const std::string& modelFile で、ONNX ファイルを指定すれば、良いようです。

では、試しに、http://www.netosa.com/blog/2019/05/pytorch-10-object-detection-faster-rcnn.html 
のmaskrcnn-benchmark の学習済モデルを、Pytorch で、ONNX に吐き出して、それをインポートできるか試してみます。

おっと、その前に、maskrcnn-benchmark の ONNXへのエクスポートが出来ないから、将来できるようにならないか、みたいな記述があるぞね。
https://github.com/facebookresearch/maskrcnn-benchmark/issues/116
ここで、方針転換になるのか?

このブログ記事について

このページは、おんちゃんが2019年6月12日 12:41に書いたブログ記事です。

ひとつ前のブログ記事は「TensorRT 5.1 Windows10 での試し」です。

次のブログ記事は「tensorflowでMASK R-CNNによるSemantic Segmentation」です。

最近のコンテンツはインデックスページで見られます。過去に書かれたものはアーカイブのページで見られます。

カテゴリ

ウェブページ

サイトナビ