我正在尝试在 Torch 中实现一个简单的 NN 以了解更多信息。我创建了一个非常简单的数据集:从 0 到 15 的二进制数,我的目标是将这些数字分为两类 - 第 1 类是数字 0-3 和 12-15,第 2 类是其余的。以下代码是我现在拥有的(我只删除了数据加载例程):
require 'torch'
require 'nn'
data = torch.Tensor( 16, 4 )
class = torch.Tensor( 16, 1 )
network = nn.Sequential()
network:add( nn.Linear( 4, 8 ) )
network:add( nn.ReLU() )
network:add( nn.Linear( 8, 2 ) )
network:add( nn.LogSoftMax() )
criterion = nn.ClassNLLCriterion()
for i = 1, 300 do
prediction = network:forward( data )
--print( "prediction: " .. tostring( prediction ) )
--print( "class: " .. tostring( class ) )
loss = criterion:forward( prediction, class )
network:zeroGradParameters()
grad = criterion:backward( prediction, class )
network:backward( data, grad )
network:updateParameters( 0.1 )
end
这是数据和类张量的样子:
0 0 0 0
0 0 0 1
0 0 1 0
0 0 1 1
0 1 0 0
0 1 0 1
0 1 1 0
0 1 1 1
1 0 0 0
1 0 0 1
1 0 1 0
1 0 1 1
1 1 0 0
1 1 0 1
1 1 1 0
1 1 1 1
[torch.DoubleTensor of size 16x4]
2
2
2
2
1
1
1
1
1
1
1
1
2
2
2
2
[torch.DoubleTensor of size 16x1]
这就是我所期望的。但是,在运行此代码时,我在 line loss = criteria:forward( prediction, class )上收到以下错误:
torch/install/share/lua/5.1/nn/ClassNLLCriterion.lua:69:尝试对 nil 值执行算术运算
当我像这样修改训练例程(一次处理一个数据点而不是批量处理所有 16 个数据点)时,它可以工作并且网络成功地学会了识别这两个类:
for k = 1, 300 do
for i = 1, 16 do
prediction = network:forward( data[i] )
--print( "prediction: " .. tostring( prediction ) )
--print( "class: " .. tostring( class ) )
loss = criterion:forward( prediction, class[i] )
network:zeroGradParameters()
grad = criterion:backward( prediction, class[i] )
network:backward( data[i], grad )
network:updateParameters( 0.1 )
end
end
我不确定我正在尝试做的“批处理”可能有什么问题。简要看一下 ClassNLLCriterion 并没有帮助,看来我正在给它预期的输入(见下文),但它仍然失败。它接收的输入(预测和张量类)如下所示:
-0.9008 -0.5213
-0.8591 -0.5508
-0.9107 -0.5146
-0.8002 -0.5965
-0.9244 -0.5055
-0.8581 -0.5516
-0.9174 -0.5101
-0.8040 -0.5934
-0.9509 -0.4884
-0.8409 -0.5644
-0.8922 -0.5272
-0.7737 -0.6186
-0.9422 -0.4939
-0.8405 -0.5648
-0.9012 -0.5210
-0.7820 -0.6116
[torch.DoubleTensor of size 16x2]
2
2
2
2
1
1
1
1
1
1
1
1
2
2
2
2
[torch.DoubleTensor of size 16x1]
有人可以帮我吗?谢谢。