我使用谷歌云视觉 api 创建了一个模型。我花了无数个小时标记数据,并训练了一个模型。在将近 20 个小时的“训练”模型结束时,它仍然是碰碰运气。
我如何迭代这个模型?我不想失去到目前为止所做的“学习”。它的工作效率约为 3/5 次。
我最好的猜测是我应该再次遍历对象,找到错误的地方,并相应地标记。但我不确定最好的方法。我应该将所有“遗漏”的图像标记为测试数据图像吗?我可以阅读有关此主题的最佳实践或资源吗?
我使用谷歌云视觉 api 创建了一个模型。我花了无数个小时标记数据,并训练了一个模型。在将近 20 个小时的“训练”模型结束时,它仍然是碰碰运气。
我如何迭代这个模型?我不想失去到目前为止所做的“学习”。它的工作效率约为 3/5 次。
我最好的猜测是我应该再次遍历对象,找到错误的地方,并相应地标记。但我不确定最好的方法。我应该将所有“遗漏”的图像标记为测试数据图像吗?我可以阅读有关此主题的最佳实践或资源吗?
我绝不是专家,但我建议按照从最重要到最不重要的顺序排列:
1) 如果可能,添加更多数据。更多的数据总是一件好事,有助于提高网络预测的稳健性。
3) 修改内核和偏置初始化器
4)[与您的问题最相关的答案]保存模型的训练权重并在训练之前将它们重新加载到新模型中。
5) 更改您正在使用的模型架构的类型。然后,对 epoch 数、验证拆分、损失评估公式等进行修改。
希望这可以帮助!
编辑:关于 4 号的更多信息
因此,您可以在模型训练期间或之后保存和加载模型权重。有关保存的更多详细信息,请参见此处。
概括地说,让我们介绍一下基础知识。我假设您正在使用 keras,但同样适用于 tf:
只需调用:
model_json = model.to_json()
with open("{Your_Model}.json", "w") as json_file:
json_file.write(model_json)
# serialize weights to HDF5
model.save_weights("{Your_Model}.h5")
print("Saved model to disk")
您可以像这样从 json 加载模型结构:
from keras.models import model_from_json
json_file = open('{Your_Model.json}', 'r')
loaded_model_json = json_file.read()
json_file.close()
model = model_from_json(loaded_model_json)
如果您愿意,还可以加载权重:
model.load_weights('{Your_Weights}.h5', by_name=True)
然后编译模型,您就可以重新训练/预测了。by_name
对我来说,将权重重新加载到相同的模型架构中是必不可少的;忽略它可能会导致错误。
cp_callback = tf.keras.callbacks.ModelCheckpoint(filepath={checkpoint_path},
save_weights_only=True,
verbose=1)
# Train the model with the new callback
model.fit(train_images,
train_labels,
epochs=10,
validation_data=(test_images,test_labels),
callbacks=[cp_callback]) # Pass callback to training