1

假设我有一个张量:

x = tf.reshape(tf.constant(tf.range(1, 21, dtype=tf.float32)), (5,4))

<tf.Tensor: id=1080557, shape=(5, 4), dtype=float32, numpy=
array([[ 1.,  2.,  3.,  4.],
       [ 5.,  6.,  7.,  8.],
       [ 9., 10., 11., 12.],
       [13., 14., 15., 16.],
       [17., 18., 19., 20.]], dtype=float32)>

我对其应用辍学:

dropout = tf.keras.layers.Dropout(0.1)
dropout(x, training=True)

<tf.Tensor: id=1080704, shape=(5, 4), dtype=float32, numpy=
array([[ 1.1111112,  2.2222223,  3.3333335,  0.       ],
       [ 5.555556 ,  6.666667 ,  7.777778 ,  8.888889 ],
       [10.       , 11.111112 , 12.222223 ,  0.       ],
       [14.444445 , 15.555556 , 16.666668 , 17.777779 ],
       [18.88889  ,  0.       , 21.111113 , 22.222223 ]], dtype=float32)>

每次我运行它时,我都有 1 到 3 个不完全归零的值rate=0.1。它实际适用的费率范围是多少?为什么非归零值会发生变化?

可视化 Celius Stingher 的答案:

l = 10000; r = range(l)
f = np.zeros((5,4))
for i in r:
  d = dropout(x, training=True)
  f += d
f = f/l
f

<tf.Tensor: id=1234967, shape=(5, 4), dtype=float32, numpy=
array([[ 1.0006623,  1.999991 ,  2.988533 ,  4.017763 ],
       [ 5.000613 ,  6.0477467,  7.0076656,  8.0248575],
       [ 9.048    , 10.06455  , 10.980609 , 12.010143 ],
       [12.918334 , 14.100925 , 15.039784 , 16.014153 ],
       [17.0579   , 18.112    , 19.064175 , 20.024672 ]], dtype=float32)>
4

1 回答 1

1

因为 dropout 的工作方式是将每个神经元设置为 0,概率等于您传递的值。您可以将其视为二项式分布[*],p = 0.1期望值等于 2n = 20标准差等于 ~1.34,这解释了为什么大多数时候您会看到 1 到 3 个神经元(值)被强制为 0 . 这就是为什么您可以在 dropout 函数中设置随机种子以确保可重复性

[*] 在本文1中,您可以找到更多细节,他们假设 r(j) 遵循伯努利分布(因此,多个伯努利分布的重复遵循二项式分布)。

OP问:谢谢。我明白了,但是其他值呢?为什么非归零值发生了变化?

编辑:考虑到函数的工作原理、模型和值集,从长远来看,应用 dropout 后的预期值必须等于应用它们之前的值。因此,如果您运行此代码进行 1000 次迭代,我预计每次运行的平均值趋于 10.5(或总共 210)。实现这一点的唯一方法是以与 dropout 相同的速率增加每个值。如果您遇到这种worse情况,您将删除最后 3 个数字,但如果您将删除前 3 个数字,best则两个平均值的平均值为 10.5,即初始平均值。解释来自我链接的论文。(第 1933 页)

于 2019-09-14T12:30:39.587 回答