1

我按照以下步骤操作:</p>

1.CityScapes数据集准备

2.生成CityScapes的TFRecords

3.下载预训练模型

4.运行官方指令

python deeplab/train.py \
--logtostderr \
--training_number_of_steps=1000 \
--train_split="train" \
--model_variant="xception_65" \
--atrous_rates=6 \
--atrous_rates=12 \
--atrous_rates=18 \
--output_stride=16 \
--decoder_output_stride=4 \
--train_crop_size=513 \
--train_crop_size=513 \
--train_batch_size=1 \
--dataset="cityscapes" \
--tf_initial_checkpoint='/root/newP/official_tf/models-master/research/deeplab/backbone/deeplabv3_cityscapes_train/model.ckpt' \
--train_logdir='/root/newP/official_tf/models-master/research/deeplab/exp/train_on_train_set/train' \
--dataset_dir='/root/dataset/cityscapesScripts/tfrecord'

使用 CityScapes 数据集训练 deeplabv3++ 时出错

“无法识别数据拆分名称列车”。

调试后发现问题:“train”不再退出

“_CITYSCAPES_INFORMATION.splits_to_sizes”。代码内容:</p>

 _CITYSCAPES_INFORMATION = DatasetDescriptor(
    splits_to_sizes={'train_fine': 2975,
                     'train_coarse': 22973,
                     'trainval_fine': 3475,
                     'trainval_coarse': 23473,
                     'val_fine': 500,
                     'test_fine': 1525},
    num_classes=19,
    ignore_label=255,
)

我尝试了其他几个“train_fine”,“train_coarse”。出现了一个新错误:

“对于 image_pooling/weights lh_shape: [(1, 1, 2048, 256)], rh_shape: [(1, 1, 320, 256)],新数组的总大小必须保持不变。

请问我应该做哪些修改?

4

1 回答 1

0

发现最新版的预训练模型有问题,不用预训练模型的时候直接运行就可以了。[ https://github.com/tensorflow/models/blob/master/research/deeplab/g3doc/model_zoo.md][1]

于 2019-11-22T09:03:22.420 回答