我有 200 个具有 6000 个特征的训练数据,标签是 (0, +1) 已转换为HDF5
格式。(就像那样,我有 77 个测试数据)。
我正在绘制统计数据,例如迭代的准确性。我为此使用 parse_log 和 gnuplot。现在我的问题是我需要测试集和训练集的准确性。换句话说,我希望 TEST 阶段将应用于两个数据库,因此给我两个准确度数字,以了解这两个曲线如何演变。我accuracy layer
的
train_val.prototxt
是:
layer {
name: "accuracy"
type: "Accuracy"
bottom: "sigm_l2"
bottom: "label1"
top: "accuracy"
}
我在solver.prototxt中是:
test_state: { stage: 'test-on-train' }
test_iter: 500
test_state: { stage: 'test-on-test' }
test_iter: 100
test_interval: 500
test_compute_loss: true
base_lr: 0.00001
momentum: 0.9
weight_decay: 0.000005
# The learning rate policy
lr_policy: "inv"
gamma: 0.0001
power: 0.75
# Display every 100 iterations
display: 100
# The maximum number of iterations
max_iter: 65000
# snapshot intermediate results
# solver mode: CPU or GPU
solver_mode: CPU
训练和测试的准确性是:
(test_accuracy)
训练精度为:
我想知道为什么训练精度在迭代中没有变化(在训练阶段)。