我按照以下步骤操作:</p>
1.CityScapes数据集准备
2.生成CityScapes的TFRecords
3.下载预训练模型
4.运行官方指令
python deeplab/train.py \
--logtostderr \
--training_number_of_steps=1000 \
--train_split="train" \
--model_variant="xception_65" \
--atrous_rates=6 \
--atrous_rates=12 \
--atrous_rates=18 \
--output_stride=16 \
--decoder_output_stride=4 \
--train_crop_size=513 \
--train_crop_size=513 \
--train_batch_size=1 \
--dataset="cityscapes" \
--tf_initial_checkpoint='/root/newP/official_tf/models-master/research/deeplab/backbone/deeplabv3_cityscapes_train/model.ckpt' \
--train_logdir='/root/newP/official_tf/models-master/research/deeplab/exp/train_on_train_set/train' \
--dataset_dir='/root/dataset/cityscapesScripts/tfrecord'
使用 CityScapes 数据集训练 deeplabv3++ 时出错
“无法识别数据拆分名称列车”。
调试后发现问题:“train”不再退出
“_CITYSCAPES_INFORMATION.splits_to_sizes”。代码内容:</p>
_CITYSCAPES_INFORMATION = DatasetDescriptor(
splits_to_sizes={'train_fine': 2975,
'train_coarse': 22973,
'trainval_fine': 3475,
'trainval_coarse': 23473,
'val_fine': 500,
'test_fine': 1525},
num_classes=19,
ignore_label=255,
)
我尝试了其他几个“train_fine”,“train_coarse”。出现了一个新错误:
“对于 image_pooling/weights lh_shape: [(1, 1, 2048, 256)], rh_shape: [(1, 1, 320, 256)],新数组的总大小必须保持不变。
请问我应该做哪些修改?