0

我有一个使用 tensorflow 对象检测 api 和更快的 rcnn 模型制作的对象检测模型。该模型能够检测到清晰可见的对象,但无法检测到尺寸较小/较小或距离较大的对象。在更快的 rcnn 配置文件中是否需要更改任何内容?如果是,那是什么?如果不是,那么这个模型如何检测微小的物体?下面是更快的 rcnn 配置文件供参考

model {
  faster_rcnn {
    num_classes: 4
    image_resizer {
      keep_aspect_ratio_resizer {
        min_dimension: 600
        max_dimension: 1024
      }
    }
    feature_extractor {
      type: 'faster_rcnn_inception_v2'
      first_stage_features_stride: 16
    }
    first_stage_anchor_generator {
      grid_anchor_generator {
        scales: [0.25, 0.5, 1.0, 2.0]
        aspect_ratios: [0.5, 1.0, 2.0]
        height_stride: 16
        width_stride: 16
      }
    }
    first_stage_box_predictor_conv_hyperparams {
      op: CONV
      regularizer {
        l2_regularizer {
          weight: 0.0
        }
      }
      initializer {
        truncated_normal_initializer {
          stddev: 0.01
        }
      }
    }
    first_stage_nms_score_threshold: 0.0
    first_stage_nms_iou_threshold: 0.7
    first_stage_max_proposals: 300
    first_stage_localization_loss_weight: 2.0
    first_stage_objectness_loss_weight: 1.0
    initial_crop_size: 14
    maxpool_kernel_size: 2
    maxpool_stride: 2
    second_stage_box_predictor {
      mask_rcnn_box_predictor {
        use_dropout: false
        dropout_keep_probability: 1.0
        fc_hyperparams {
          op: FC
          regularizer {
            l2_regularizer {
              weight: 0.0
            }
          }
          initializer {
            variance_scaling_initializer {
              factor: 1.0
              uniform: true
              mode: FAN_AVG
            }
          }
        }
      }
    }
    second_stage_post_processing {
      batch_non_max_suppression {
        score_threshold: 0.0
        iou_threshold: 0.6
        max_detections_per_class: 100
        max_total_detections: 300
      }
      score_converter: SOFTMAX
    }
    second_stage_localization_loss_weight: 2.0
    second_stage_classification_loss_weight: 1.0
  }
}

train_config: {
  batch_size: 1
  optimizer {
    momentum_optimizer: {
      learning_rate: {
        manual_step_learning_rate {
          initial_learning_rate: 0.0002
          schedule {
            step: 3000
            learning_rate: .00002
          }
          schedule {
            step: 15000
            learning_rate: .000002
          }
        }
      }
      momentum_optimizer_value: 0.9
    }
    use_moving_average: false
  }
  gradient_clipping_by_norm: 10.0
  fine_tune_checkpoint: "C:/multi_cat_3/models/research/object_detection/faster_rcnn_inception_v2_coco_2018_01_28/model.ckpt"
  from_detection_checkpoint: true
  load_all_detection_checkpoint_vars: true

  num_steps: 20000
  data_augmentation_options {
    random_horizontal_flip {
    }
  }
}


train_input_reader: {
  tf_record_input_reader {
    input_path: "C:/multi_cat_3/models/research/object_detection/train.record"
  }
  label_map_path: "C:/multi_cat_3/models/research/object_detection/training/labelmap.pbtxt"
}

eval_config: {
  metrics_set: "coco_detection_metrics"
  num_examples: 1311
}

eval_input_reader: {
  tf_record_input_reader {
    input_path: "C:/multi_cat_3/models/research/object_detection/test.record"
  }
  label_map_path: "C:/multi_cat_3/models/research/object_detection/training/labelmap.pbtxt"
  shuffle: false
  num_readers: 1
}
4

2 回答 2

0

COCO 指标将对象大小定义为:

small objects: area < 32*2
medium objects: 32*2 < area < 96*2
large objects: area > 96*2

因此,无论您要检测哪个对象,都将主图像平铺/切割成几个部分,直到您的对象相对于整个图像分辨率显得更大。

选择不会将您的火车图像调整为低于所需尺寸的模型(以使对象相对于整个图像更大)

下面的配置。例如,如果您的原始图像是 2000x2000,而对象是 30x30,如果您选择以下配置,对象也将被调整为小于 30x30,因为训练图像在传递给模型进行训练之前将被调整为 600x1024。

但是如果图像可以被切割成 4x4 的瓦片(500x500),下面的规格会将其调整为 600x600,并且对象将大于 30x30。

image_resizer {
      keep_aspect_ratio_resizer {
        min_dimension: 600
        max_dimension: 1024

PS:在推理时,相同的切割/平铺图像需要通过模型,可能会增加推理时间。

另一种选择是选择适合您在 image_resizer 函数中给出的原始图像分辨率的配置,但需要更高的规格(CPU/GPU/TPU)来处理训练。

于 2020-10-10T17:02:40.390 回答
0

我想您需要使用要测试的相似图像来训练模型。在您的情况下,您将使用该数据集测试和训练模型。拍摄所需高度或距离的图像,并尽可能准确地标记图像。

我认为这会做到。

于 2019-09-06T08:21:42.653 回答