2

我有 200 个具有 6000 个特征的训练数据,标签是 (0, +1) 已转换为HDF5格式。(就像那样,我有 77 个测试数据)。

我正在绘制统计数据,例如迭代的准确性。我为此使用 parse_log 和 gnuplot。现在我的问题是我需要测试集和训练集的准确性。换句话说,我希望 TEST 阶段将应用于两个数据库,因此给我两个准确度数字,以了解这两个曲线如何演变。我accuracy layer

train_val.prototxt

是:

layer {
  name: "accuracy"
  type: "Accuracy"
  bottom: "sigm_l2"
  bottom: "label1"
  top: "accuracy" 
}

我在solver.prototxt中是:

    test_state: { stage: 'test-on-train' }
    test_iter: 500
    test_state: { stage: 'test-on-test' }
    test_iter: 100
    test_interval: 500
    test_compute_loss: true
    base_lr: 0.00001
    momentum: 0.9
    weight_decay: 0.000005
    # The learning rate policy
    lr_policy: "inv"
    gamma: 0.0001
    power: 0.75
    # Display every 100 iterations
    display: 100
    # The maximum number of iterations
    max_iter: 65000
    # snapshot intermediate results
    # solver mode: CPU or GPU
    solver_mode: CPU

训练和测试的准确性是:

(test_accuracy)

test_acc

训练精度为:

在此处输入图像描述

我想知道为什么训练精度在迭代中没有变化(在训练阶段)

4

0 回答 0