0

在深度信念网络中,我使用 CD-1 对网络进行了预训练。我存储了权重和偏差。现在我可以运行一个带有 dropout 的有监督的 mlp 代码,并将权重初始化为从预训练中获得的权重。它是否等同于使用 dropout 微调实现的 DBN?

4

1 回答 1

0

DBN 上的 dropout 微调

方法

运行带有 dropout 的受监督 mlp 代码,并将权重初始化为从预训练中获得的权重

所以是的,它们是等价的。

于 2016-07-04T12:13:35.353 回答