Pytorch で U-Net(セマンティックセグメンテーション) のサンプルが結構公開されているので、
その中から、
https://github.com/milesial/Pytorch-UNet
を、Windows10 + GPU 環境で試してみました。
OS:Windows10
GPU:GeForce GTX 1050 Ti 4.0GB)
CUDA:10.0
Anaconda3 + Python 3.6
Pytorch 1.0.1
その前に、PyDenseCRF のインストールで躓いたので、メモしておきます。
pip install pydensecrf では、コンパイルエラーになります。
https://github.com/conda-forge/pydensecrf-feedstock
おんちゃんは、U-Net の勉強が目的なので、学習を試してみました。
>python train.py -g
を実行したら、
GPUのメモリー不足との事でした。
同じ、不具合の件が出ていたの、参考にしたところ、どうやら、
入力画像のサイズとバッチサイズを小さくすれば良いとの情報が得られました。
https://discuss.pytorch.org/t/gpu-memory-issue-on-unet/42651/4
>python train.py -g -b 3 -s 0.3
で、どうやら、GPU でOK となりました。
画像の適性サイズは、def train_net() の中で、 summary(net,input_size=(3,width,hight)) で確認できます。