我遵循以下步骤:
1.CityScapes数据集准备
2。生成CityScapes的TFRecords
3。下载预训练模型
4。执行官方说明
python deeplab/train.py \
--logtostderr \
--training_number_of_steps=1000 \
--train_split="train" \
--model_variant="xception_65" \
--atrous_rates=6 \
--atrous_rates=12 \
--atrous_rates=18 \
--output_stride=16 \
--decoder_output_stride=4 \
--train_crop_size=513 \
--train_crop_size=513 \
--train_batch_size=1 \
--dataset="cityscapes" \
--tf_initial_checkpoint='/root/newP/official_tf/models-master/research/deeplab/backbone/deeplabv3_cityscapes_train/model.ckpt' \
--train_logdir='/root/newP/official_tf/models-master/research/deeplab/exp/train_on_train_set/train' \
--dataset_dir='/root/dataset/cityscapesScripts/tfrecord'
使用CityScapes数据集训练deeplabv3 ++时发生错误
“无法识别数据拆分名称列”。
我在调试后发现了问题:“火车”不再退出
“ _ CITYSCAPES_INFORMATION.splits_to_sizes”。 代码内容:
_CITYSCAPES_INFORMATION = DatasetDescriptor(
splits_to_sizes={'train_fine': 2975,
'train_coarse': 22973,
'trainval_fine': 3475,
'trainval_coarse': 23473,
'val_fine': 500,
'test_fine': 1525},
num_classes=19,
ignore_label=255,
)
我尝试了其他几个“ train_fine”,“ train_coarse”。发生了新错误:
“ image_pooling / weights lh_shape:[(1,1,2048,256)],rh_shape:[(1,1,320,256)]的新数组总大小必须保持不变。”
请问我应该做哪些修改?
答案 0 :(得分:0)
我发现预训练模型的最新版本有问题,当我不使用预训练模型时,可以直接运行它。 [https://github.com/tensorflow/models/blob/master/research/deeplab/g3doc/model_zoo.md][1]