7

我有一个关于微调和迁移学习的一般性问题,当我试图弄清楚如何最好地让 yolo 检测我的自定义对象(手)时出现了这个问题。

对于可能包含大量虚假信息的长文本,我深表歉意。如果有人有耐心阅读并帮助我消除困惑,我会很高兴。

经过大量的谷歌搜索,我了解到很多人认为微调是迁移学习的一个子类,而另一些人则认为他们使用不同的方法来训练模型。同时,人们区分仅在自定义数据集上重新训练模型的最后一个分类器层与重新训练模型的其他层(并且可能添加一个全新的分类器而不是重新训练?)。两种方法都使用预训练模型。

我最后的困惑在于:我按照以下说明进行操作:https : //github.com/thtrieu/darkflow 通过darkflow 训练tiny yolo,使用以下命令:

# Initialize yolo-new from yolo-tiny, then train the net on 100% GPU: flow --model cfg/yolo-new.cfg --load bin/tiny-yolo.weights --train --gpu 1.0 但是这里会发生什么?我想我只重新训练分类器,因为说明说要更改配置文件中最后一层的类数。但话又说回来,还需要更改倒数第二层(卷积层)中的过滤器数量。

最后,说明提供了替代培训的示例: # Completely initialize yolo-new and train it with ADAM optimizer flow --model cfg/yolo-new.cfg --train --trainer adam我完全不明白这与迁移学习的不同方式有何关系。

4

2 回答 2

3

如果您使用的是 AlexeyAB 的暗网存储库(不是暗流),他建议通过在 cfg 文件中设置此参数来进行微调而不是迁移学习:stopbackward=1.

然后输入./darknet partial yourConfigFile.cfg yourWeightsFile.weights outPutName.LastLayer# LastLayer#如:

./darknet partial cfg/yolov3.cfg yolov3.weights yolov3.conv.81 81

它将创建yolov3.conv.81并冻结下层,然后您可以使用 weights 文件yolov3.conv.81而不是 original进行训练darknet53.conv.74

参考: https ://github.com/AlexeyAB/darknet#how-to-improve-object-detection,https://groups.google.com/forum/#!topic/darknet / mKkQrjuLPDU

于 2019-03-13T00:42:10.113 回答
1

我没有在 YOLO 上工作过,但看看你的问题我想我可以提供帮助。微调、重新训练、后期调优都是有些模糊的术语,经常互换使用。这完全取决于你想改变多少预训练的权重。由于您在第一种情况下使用 加载权--load重,因此此处正在加载预训练的权重 - 这可能意味着您正在以较低的学习率稍微调整权重,或者根本不改变它们。然而,在第二种情况下,您没有加载任何权重,因此您可能是从头开始训练它。因此,当您进行小的(精细)更改时,将其称为微调,后调将在初始训练后再次进行调优,可能不如微调和再训练那么好,然后再训练整个网络或部分网络

将有不同的方法可以选择冻结某些层。

于 2019-03-12T13:20:42.773 回答