0

我正在训练一个复杂的神经网络架构,然后我使用 RNN 来编码我的输入,一个带有 softmax 输出层的深度神经网络。

我现在正在优化我的架构深度神经网络部分(单元数和隐藏层数)。

我目前正在对所有层使用 sigmoid 激活。这对于少数隐藏层似乎没问题,但随着层数的增加,sigmoid 似乎不是最佳选择。

你认为我应该先对 sigmoid 进行超参数优化,然后是 ReLu,还是直接使用 ReLu 更好?

另外,考虑到我有一个 softmax 输出,你认为在第一个隐藏层中使用 Relu 并在最后一个隐藏层中使用 sigmoid 是否有意义。

4

1 回答 1

0

你不能独立优化超参数,不。仅仅因为最终的最佳解决方案恰好是 X 层和 Y 节点,并不意味着这对于所有激活函数、调节策略、学习率等都是正确的。这就是使优化参数变得棘手的原因。这也是为什么有用于超参数优化的库的原因。我建议您从阅读“随机搜索优化”的概念开始。

于 2017-06-27T10:38:56.457 回答