许多现有的 Tensorflow 和 Keras CNN 代码示例使用相同的尺寸来训练图像,通常是 299*299、244*244、256*256 等等。我认为这部分取决于与预训练模型的兼容性,以及架构本身。
我仍在评估架构,但最终可能会使用 Resnet、Inception 或 Xception 以及 Tensorflow 或 Keras 使用 Mask R-CNN(或者可能是 Faster R-CNN)。要分析的目标图像在 1024*1024 范围内,但可以分成更小的分区。
鉴于可用的预训练模型,是否存在可以提供任何优势的训练图像大小?我想避免事后调整大小,因为在某些情况下这会降低图像的清晰度。