我目前正在尝试使用 MXNet R API 设置前馈 NN。我想实现一个自定义损失函数,它使用我自己定义的预先固定的权重为 c(7,8,9)。在 Tensorflow 中,可以选择将变量定义为不可训练,以确保这些变量在训练过程中不会被修改。这正是我的体重所需要的!不幸的是,我还没有找到任何实现这一点的方法。这是我的代码:
data <- mx.symbol.Variable('data')
label <- mx.symbol.Variable('label')
weights <- mx.symbol.Variable(name='weights')
... [some network layers]...
fc2 <- mx.symbol.FullyConnected(data=tanh3, num_hidden=length(predictable_errors))
softmax <- mx.symbol.SoftmaxActivation(data=fc2, name="softmax_activation")
weighted_l2 <- mx.symbol.sum(mx.symbol.square(softmax - label)*weights)
loss <- mx.symbol.MakeLoss(data=weighted_l2)
model <- mx.model.FeedForward.create(loss, X=train.x, y=train.y, ctx=mx.cpu(), arg.params = list(weights=mx.nd.array( array(c(7,8,9), dim=c(3,1)), mx.cpu() )), num.round=1, learning.rate=0.05, momentum=0.9, array.batch.size = 1, eval.metric=mx.metric.accuracy, epoch.end.callback=mx.callback.log.train.metric(1))
我知道 Python API 提供了 set_lr_mult 函数,通过它我可以将“权重”的学习率设置为零,但对于 R,这似乎不是一个选项。你有什么建议吗?
非常感谢!