3

我的问题在最后。

一个用 mini-batch GD 训练的 CNN示例,并使用最后一个全连接层(第 60 行)中的 dropout 作为

fc1 = tf.layers.dropout(fc1, rate=dropout, training=is_training)

起初我认为tf.layers.dropoutortf.nn.dropout随机将列中的神经元设置为零。但我最近发现情况并非如此。下面的一段代码打印了它的dropout作用。我将fc0用作 4 个样本 x 10 特征矩阵,并将fc用作丢弃版本。

import tensorflow as tf
import numpy as np

fc0 = tf.random_normal([4, 10])
fc = tf.nn.dropout(fc0, 0.5)

sess = tf.Session()
sess.run(tf.global_variables_initializer())

a, b = sess.run([fc0, fc])
np.savetxt("oo.txt", np.vstack((a, b)), fmt="%.2f", delimiter=",")

在输出中oo.txt(原始矩阵:第 1-4 行,退出矩阵:第 5-8 行):

0.10,1.69,0.36,-0.53,0.89,0.71,-0.84,0.24,-0.72,-0.44
0.88,0.32,0.58,-0.18,1.57,0.04,0.58,-0.56,-0.66,0.59
-1.65,-1.68,-0.26,-0.09,-1.35,-0.21,1.78,-1.69,-0.47,1.26
-1.52,0.52,-0.99,0.35,0.90,1.17,-0.92,-0.68,-0.27,0.68
0.20,0.00,0.71,-0.00,0.00,0.00,-0.00,0.47,-0.00,-0.87
0.00,0.00,0.00,-0.00,3.15,0.07,1.16,-0.00,-1.32,0.00
-0.00,-3.36,-0.00,-0.17,-0.00,-0.42,3.57,-3.37,-0.00,2.53
-0.00,1.05,-1.99,0.00,1.80,0.00,-0.00,-0.00,-0.55,1.35

我的理解正确吗?dropout 是在小批量批量梯度下降阶段为每个样本剔除 p%相同的单元,并且反向传播更新“细化网络”的权重和偏差。然而,在示例的实现中,一批中每个样本的神经元被随机丢弃,如第 5 到第 8 行所示,并且对于每个样本,“细化网络”是不同的。oo.txt

作为比较,在随机梯度下降的情况下,样本被一个一个地输入神经网络,并且在每次迭代中,每个tf.layers.dropout引入的“细化网络”的权重都会更新。

我的问题是,在小批量或批量训练中,不应该实现为一批中的所有样本敲除相同的神经元吗?也许通过在每次迭代中对所有输入批次样本应用一个掩码?就像是:

# ones: a 1xN all 1s tensor
# mask: a 1xN 0-1 tensor, multiply fc1 by mask with broadcasting along the axis of samples
mask = tf.layers.dropout(ones, rate=dropout, training=is_training)
fc1 = tf.multiply(fc1, mask)

现在我认为示例中的 dropout 策略可能是一种更新某个神经元权重的加权方式,如果一个神经元在一个小批量中保持在 10 个样本中的 1 个中,则其权重将更新alpha * 1/10 * (y_k_hat-y_k) * x_k为在所有 10 个样本中保留另一个神经元的alpha * 1/10 * sum[(y_k_hat-y_k) * x_k]权重?

在此处输入图像描述

来自这里的屏幕截图

4

2 回答 2

6

Dropout 通常用于防止过拟合。在这种情况下,将一个巨大的权重应用于其中一个神经元。通过不时地将其随机设为 0,您可以强制网络使用更多的神经元来确定结果。为使其正常工作,您应该为每个示例丢弃不同的神经元,以便您计算的梯度更类似于您在没有丢弃的情况下得到的梯度。

如果您要为批次中的每个示例删除相同的神经元,我的猜测是您将有一个不太稳定的梯度(可能对您的应用程序无关紧要)。

此外,dropout 会放大其余值以将平均激活保持在大致相同的水平。没有它,当你关闭 dropout 时,网络会学习错误的偏差或过度饱和。

如果您仍然希望在批处理中删除相同的神经元,则将 dropout 应用于形状为 (1, num_neurons) 的全 1 张量,然后将其与激活值相乘。

于 2018-02-05T08:27:02.050 回答
3

使用 dropout 时,您实际上是在尝试使用 Monte-Carlo 采样(通过积分符号下的微分,平均梯度等于平均值​​的梯度)来估计网络对于随机选择的 dropout 掩码的平均性能。通过为每个小批量固定一个 dropout 掩码,您只是在连续梯度估计之间引入相关性,这会增加方差并导致训练速度变慢。

想象一下,对 mini-batch 中的每个图像使用不同的 dropout-mask,但是从同一图像的 k 个副本中形成 mini-batch;很明显,这完全是浪费精力!

于 2018-05-12T16:15:01.370 回答