有人可以用简单的术语和示例来解释在执行 conv2d 前向传递后这些是如何工作的。
让我补充一下这个问题 - conv2d_backprop_filter 和 tf.nn.conv2d_backprop_input 有什么区别?
有人可以用简单的术语和示例来解释在执行 conv2d 前向传递后这些是如何工作的。
让我补充一下这个问题 - conv2d_backprop_filter 和 tf.nn.conv2d_backprop_input 有什么区别?
对于 conv2d_transpose 的解释,我会查看其他堆栈溢出问题,例如:conv2d_transpose
至于 conv2d_backprop_filter:这是在反向传播期间计算并传递给前一层的内容。它已被用于诸如 Deep Dream 和创建对抗样本之类的事情。
请参阅此答案以获取有关如何tf.nn.conv2d_backprop_input
以及tf.nn.conv2d_backprop_filter
在示例中的详细示例。
对您的问题的简短回答:
在tf.nn
中,有 4 个密切相关的 2d conv 函数:
tf.nn.conv2d
tf.nn.conv2d_backprop_filter
tf.nn.conv2d_backprop_input
tf.nn.conv2d_transpose
给定out = conv2d(x, w)
和输出梯度d_out
:
tf.nn.conv2d_backprop_filter
计算滤波器梯度d_w
tf.nn.conv2d_backprop_input
计算滤波器梯度d_x
tf.nn.conv2d_backprop_input
可以通过tf.nn.conv2d_transpose
tf.nn.conv2d