公開されている、CNTK 2.4 Object Detection FasterRCNN の USBカメラ、Mjpg-streamer での利用を考えてみました。
https://docs.microsoft.com/en-us/cognitive-toolkit/Object-Detection-using-Faster-R-CNN
https://github.com/Microsoft/CNTK/tree/master/Examples/Image/Detection/FasterRCNN
cntk-samples-2-4\Examples\Image\Detection\FasterRCNN ディレクトリーの中の
run_faster_rcnn.py を実行すれ、モデルの学習が出来て、その後、サンプル画像で、
オブジェクトの検出&認識を試せますが、これが、余りにもちゃっちいので、つまりません。
なので、アプリケーションでの利用を想定して、USB カメラ、mjpg-steamer のキャプチャー画像で、
物体の検出&認識できるようにしてみました。
https://docs.microsoft.com/en-us/cognitive-toolkit/Object-Detection-using-Faster-R-CNN
https://github.com/Microsoft/CNTK/tree/master/Examples/Image/Detection/FasterRCNN
cntk-samples-2-4\Examples\Image\Detection\FasterRCNN ディレクトリーの中の
run_faster_rcnn.py を実行すれ、モデルの学習が出来て、その後、サンプル画像で、
オブジェクトの検出&認識を試せますが、これが、余りにもちゃっちいので、つまりません。
なので、アプリケーションでの利用を想定して、USB カメラ、mjpg-steamer のキャプチャー画像で、
物体の検出&認識できるようにしてみました。
>cd ....cntk-samples-2-4\Examples\Image\Detection\FasterRCNN
>python run_faster_rcnn_cam.py
で実行できます。
USB カメラで、果物を幾つか映してみれば、テストできますが、あまりかな?
去年(2017) 辺りは、ObjectDetection に関しては、CNTK2.4 が良いかと思っていましたが、
今は、Tensorflow のObject Detection の方が、学習済みモデルが一杯公開されていて、楽な気がします。
それでは、早速ですが、コードは、こちらです。下の3つをそれぞれのディレクトリーに放り込んでやれば、後は、実行できます。
USB カメラも用意しとうせ。
FasterRCNN\run_faster_rcnn_cam.py
次は、ヘルパー関数です。
utils/plot_helpers.py
最後は、FasterRCNN_eval.py です。
FasterRCNN\FasterRCNN_eval.py