我有兴趣找到关于参数(权重和偏差)的神经网络输出的梯度。
更具体地说,假设我有以下神经网络结构 [6,4,3,1]。输入样本大小是 20。我感兴趣的是找到权重(和偏差)的神经网络输出的梯度,如果我没记错的话,在这种情况下是 47。在文献中,这个梯度有时称为 Weight_Jacobian。
我在 Jupyter Notebook 上的 Python 3.6 上使用 Pytorch 0.4.0 版。
我制作的代码是这样的:
def init_params(layer_sizes, scale=0.1, rs=npr.RandomState(0)):
return [(rs.randn(insize, outsize) * scale, # weight matrix
rs.randn(outsize) * scale) # bias vector
for insize, outsize in
zip(layer_sizes[:-1],layer_sizes[1:])]
layers = [6, 4, 3, 1]
w = init_params(layers)
first_layer_w = Variable(torch.tensor(w[0][0],requires_grad=True))
first_layer_bias = Variable(torch.tensor(w[0][1],requires_grad=True))
second_layer_w = Variable(torch.tensor(w[1][0],requires_grad=True))
second_layer_bias = Variable(torch.tensor(w[1][1],requires_grad=True))
third_layer_w = Variable(torch.tensor(w[2][0],requires_grad=True))
third_layer_bias = Variable(torch.tensor(w[2][1],requires_grad=True))
X = Variable(torch.tensor(X_batch),requires_grad=True)
output=torch.tanh(torch.mm(torch.tanh(torch.mm(torch.tanh(torch.mm(X,first_layer_w)+first_layer_bias),second_layer_w)+second_layer_bias),third_layer_w)+third_layer_bias)
output.backward()
从代码中可以明显看出,我使用双曲正切作为非线性。该代码生成长度为 20 的输出向量。现在,我有兴趣在所有权重(全部 47 个)中找到此输出向量的梯度。我在这里阅读了 Pytorch 的文档。例如,我也在 这里看到了类似的问题。但是,我没能找到输出向量 wrt 参数的梯度。如果我使用 Pytorch 函数backward(),它会生成一个错误
RuntimeError: grad can be implicitly created only for scalar outputs
我的问题是,有没有办法计算输出向量 wrt 参数的梯度,它基本上可以表示为 20*47 矩阵,因为我的输出向量的大小为 20,参数向量的大小为 47?如果是这样,如何?我的代码有什么问题吗?你可以举任何 X 的例子,只要它的尺寸是 20*6。