4

我的任务是根据缺陷对种子进行分类。我在 7 个班级中有大约 14k 张图片(它们的大小不相等,有些班级的照片更多,有些班级的照片更少)。我尝试从头开始训练 Inception V3,我的准确率约为 90%。然后我尝试使用带有 ImageNet 权重的预训练模型进行迁移学习。我inception_v3applications没有顶部 fc 层的情况下导入,然后在文档中添加了我自己的。我以以下代码结束:

# Setting dimensions
img_width = 454
img_height = 227

###########################
# PART 1 - Creating Model #
###########################

# Creating InceptionV3 model without Fully-Connected layers
base_model = InceptionV3(weights='imagenet', include_top=False, input_shape = (img_height, img_width, 3))

# Adding layers which will be fine-tunned
x = base_model.output
x = GlobalAveragePooling2D()(x)
x = Dense(1024, activation='relu')(x)
predictions = Dense(7, activation='softmax')(x)

# Creating final model
model = Model(inputs=base_model.input, outputs=predictions)

# Plotting model
plot_model(model, to_file='inceptionV3.png')

# Freezing Convolutional layers
for layer in base_model.layers:
    layer.trainable = False

# Summarizing layers
print(model.summary())

# Compiling the CNN
model.compile(optimizer = 'adam', loss = 'categorical_crossentropy', metrics = ['accuracy'])

##############################################
# PART 2 - Images Preproccessing and Fitting #
##############################################

# Fitting the CNN to the images

train_datagen = ImageDataGenerator(rescale = 1./255,
                                   rotation_range=30,
                                   width_shift_range=0.2,
                                   height_shift_range=0.2,
                                   shear_range = 0.2,
                                   zoom_range = 0.2,
                                   horizontal_flip = True,
                                   preprocessing_function=preprocess_input,)

valid_datagen = ImageDataGenerator(rescale = 1./255,
                                   preprocessing_function=preprocess_input,)

train_generator = train_datagen.flow_from_directory("dataset/training_set",
                                                    target_size=(img_height, img_width),
                                                    batch_size = 4,
                                                    class_mode = "categorical",
                                                    shuffle = True,
                                                    seed = 42)

valid_generator = valid_datagen.flow_from_directory("dataset/validation_set",
                                                    target_size=(img_height, img_width),
                                                    batch_size = 4,
                                                    class_mode = "categorical",
                                                    shuffle = True,
                                                    seed = 42)

STEP_SIZE_TRAIN = train_generator.n//train_generator.batch_size
STEP_SIZE_VALID = valid_generator.n//valid_generator.batch_size

# Save the model according to the conditions  
checkpoint = ModelCheckpoint("inception_v3_1.h5", monitor='val_acc', verbose=1, save_best_only=True, save_weights_only=False, mode='auto', period=1)
early = EarlyStopping(monitor='val_acc', min_delta=0, patience=10, verbose=1, mode='auto')

#Training the model
history = model.fit_generator(generator=train_generator,
                         steps_per_epoch=STEP_SIZE_TRAIN,
                         validation_data=valid_generator,
                         validation_steps=STEP_SIZE_VALID,
                         epochs=25,
                         callbacks = [checkpoint, early])

但我得到了糟糕的结果:45% 的准确率。我认为它应该更好。我有一些假设可能会出错:

  • 我从头开始对缩放图像(299x299)和非缩放图像(227x454)进行了训练,但它失败了(或者我的尺寸顺序失败了)。
  • 在我使用迁移学习preprocessing_function=preprocess_input时(在网上发现它非常重要的文章,所以我决定添加它)。
  • 添加rotation_range=30width_shift_range=0.2height_shift_range=0.2horizontal_flip = Truewhile 迁移学习以进一步增强数据。
  • 也许亚当优化器是个坏主意?例如,我应该尝试 RMSprop 吗?
  • 我也应该用小学习率的 SGD 微调一些 conv 层吗?

还是我失败了其他事情?

编辑:我发布了一段训练历史。也许它包含有价值的信息:

历史训练情节

EDIT2:随着 InceptionV3 参数的改变:

更改参数的 InceptionV3

VGG16进行比较:

用于比较的 VGG16

4

2 回答 2

5

@今天,我发现了一个问题。这是因为批量标准化层及其在冻结时的行为发生了一些变化。Chollet 先生给出了解决方法,但我使用了 datumbox 制造的 Keras fork,解决了我的问题。这里描述了主要问题:

https://github.com/keras-team/keras/pull/9965

现在我得到了约 85% 的准确率,并正在努力提高它。

于 2018-08-31T07:53:28.073 回答
2

如果您想使用preprocess_inputKeras 中的方法对输入进行预处理,请删除该rescale=1./255参数。否则,保留rescale参数并删除preprocessing_function参数。另外,如果损失没有减少,请尝试使用较低的学习率,例如 1e-4 或 3e-5 或 1e-5(Adam 优化器的默认学习率是 1e-3):

from keras.optimizers import Adam

model.compile(optimizer = Adam(lr=learning_rate), ...)

编辑:添加训练图后,您可以看到它在训练集上是否过拟合。你可以:

  • 添加某种正则化,例如 Dropout 层,
  • 或者通过减少最后一层之前的密集层中的单元数来减小网络大小。
于 2018-08-24T09:33:50.503 回答