2

我在 Google Colab 中微调预训练模型deeplabv3_mnv2_pascal_train_aug时遇到问题。

当我使用vis.py进行可视化时,如果图像的高度/宽度较大,即图像不是正方形,结果似乎会移到图像的左侧/上侧。

用于微调的数据集是Look Into Person。这样做的步骤是:

  1. 在 deeplab/datasets/data_generator.py 中创建数据集
_LIP_INFORMATION = DatasetDescriptor(
    splits_to_sizes={
        'train': 30462,
        'train_aug': 10582,
        'trainval': 40462,
        'val': 10000,
    },
    num_classes=19,
    ignore_label=255,
)

_DATASETS_INFORMATION = {
    'cityscapes': _CITYSCAPES_INFORMATION,
    'pascal_voc_seg': _PASCAL_VOC_SEG_INFORMATION,
    'ade20k': _ADE20K_INFORMATION,
    'cihp': _CIHP_INFORMATION,
    'lip': _LIP_INFORMATION,
}
  1. 转换为 tfrecord
!python models/research/deeplab/datasets/build_voc2012_data.py \
  --image_folder="/content/drive/MyDrive/TFM/lip_trainval_images/TrainVal_images/train_images" \
  --semantic_segmentation_folder="/content/drive/MyDrive/TFM/lip_trainval_segmentations/TrainVal_parsing_annotations/train_segmentations" \
  --list_folder="/content/drive/MyDrive/TFM/lip_trainval_images" \
  --image_format="jpg" \
  --output_dir="train_lip_tfrecord/"
!python models/research/deeplab/datasets/build_voc2012_data.py \
  --image_folder="/content/drive/MyDrive/TFM/lip_trainval_images/TrainVal_images/val_images" \
  --semantic_segmentation_folder="/content/drive/MyDrive/TFM/lip_trainval_segmentations/TrainVal_parsing_annotations/val_segmentations" \
  --list_folder="/content/drive/MyDrive/TFM/lip_trainval_images" \
  --image_format="jpg" \
  --output_dir="val_lip_tfrecord/"
  1. 训练
!python deeplab/train.py --logtostderr \
  --training_number_of_steps=40000 \
  --train_split="train" \
  --model_variant="mobilenet_v2" \
  --atrous_rates=6 \
  --atrous_rates=12 \
   --atrous_rates=18 \
   --output_stride=16 \
   --decoder_output_stride=4 \
   --train_batch_size=1 \
   --dataset="lip" \
   --train_logdir="/content/drive/MyDrive/TFM/checkpoint_lip_mobilenet" \
   --dataset_dir="/content/drive/MyDrive/TFM/trainval_lip_tfrecord/" \
   --fine_tune_batch_norm=false \
   --initialize_last_layer=false \
   --last_layers_contain_logits_only=false
  1. 可视化
!python deeplab/vis.py --logtostderr \
  --vis_split="val" 
  --model_variant="mobilenet_v2" 
  --atrous_rates=6 \
  --atrous_rates=12 \
   --atrous_rates=18 \
   --output_stride=16 \
   --decoder_output_stride=4 \
   --dataset="lip" \
   --checkpoint_dir="/content/drive/MyDrive/TFM/checkpoint_lip_mobilenet" \
   --vis_logdir="/content/drive/My Drive/TFM/eval_results_lip" \
   --dataset_dir="/content/drive/My Drive/TFM/trainval_lip_tfrecord" \
   --max_number_of_iterations=1 \
   --eval_interval_secs=0

通过以下步骤,我面临的问题的一个示例是:

原始图像

Deeplabv3 结果

我不知道我是否遗漏了一些重要的东西,或者是否需要更多的培训。然而,训练似乎不是一个解决方案,因为它的损失目前从 1.5 上下波动到 0.5,大约。

提前致谢。

4

1 回答 1

1

一段时间后,我确实找到了解决这个问题的方法。要知道的重要一点是,默认情况下,train_crop_sizevis_crop_size为 513x513。

问题是由于 vis_crop_size 小于输入图像,因此需要 vis_crop_size 大于最大图像的最大尺寸

如果您想使用export_model.py,您必须使用与vis.py相同的逻辑,因此默认情况下您的蒙版不会被裁剪为 513。

于 2021-06-14T21:20:29.393 回答