我在神经网络的不同部分看到了关于 dropout 的描述:
权重矩阵中的 dropout,
在矩阵乘法之后和 relu 之前隐藏层中的 dropout,
relu后隐藏层dropout,
并且在softmax函数之前的输出分数中丢失
我对应该在哪里执行 dropout 有点困惑。有人可以帮忙详细说明一下吗?谢谢!
我在神经网络的不同部分看到了关于 dropout 的描述:
权重矩阵中的 dropout,
在矩阵乘法之后和 relu 之前隐藏层中的 dropout,
relu后隐藏层dropout,
并且在softmax函数之前的输出分数中丢失
我对应该在哪里执行 dropout 有点困惑。有人可以帮忙详细说明一下吗?谢谢!