我有一个神经网络,它是一个函数 f:(t, v) -> (x,z)。我可以计算 autograd 偏导 df/dt 吗?我想在我的损失函数的正则化项中使用 autograd 计算。
yhat = net((t,v))
#calculate current value of df/dt here
penalized_loss(yhat, y) = loss(yhat, y) + penalty(df/dt)
我想做类似的事情
df/dt = gradient(net,t)
但我不知道如何告诉梯度函数输入(t)是什么