是否有可能使用11GB的4 GPU将TensorFlow中的当前deeplab模型训练到合理的精度?我似乎能够为每个GPU配备2个批次,因此我在4个克隆中运行总批量为8个。
在instructions included with the model之后,我获得了平均IoU< 90,000次迭代后30%。
PYTHONPATH=$PYTHONPATH:`pwd`:`pwd`/slim python deeplab/train.py \
--logtostderr --training_number_of_steps=90000 \
--train_split="train" --model_variant="xception_65" \
--atrous_rates=6 --atrous_rates=12 --atrous_rates=18 \
--output_stride=16 --decoder_output_stride=4 --train_crop_size=769 \
--train_crop_size=769 --train_batch_size=8 --num_clones=4 \
--dataset="cityscapes" \
--tf_initial_checkpoint=deeplab/models/xception/model.ckpt \
--train_logdir=$LOGDIR \
--dataset_dir=deeplab/datasets/cityscapes/tfrecord
我已尝试批量规范启用和禁用,但结果没有太大差异。
谢谢!
答案 0 :(得分:0)
如果您查看此链接https://github.com/tensorflow/models/blob/master/research/deeplab/g3doc/model_zoo.md 它链接到MobileNet v2的预训练模型和在Cityscapes上训练的DeepLab。您可以修改此处存在的现有shell脚本以训练城市景观。
答案 1 :(得分:0)
看来我需要比默认值大得多的步长。 1e-2使结果更接近于已发布的结果,批次大小为15,作物窗口尺寸更小。