我有200个训练数据,有6000个特征,标签是(0,+ 1),已转换为HDF5
格式。 (就像那样,我有77个测试数据)。
我正在制作统计数据,例如精确度超过迭代次数。我使用parse_log和gnuplot。现在我的问题是我需要testset和trainset的准确性。换句话说,我希望TEST阶段将应用于两个数据库,因此给我两个准确度数字,以便了解两个courves如何演变。
中的accuracy layer
train_val.prototxt
是:
layer {
name: "accuracy"
type: "Accuracy"
bottom: "sigm_l2"
bottom: "label1"
top: "accuracy"
}
我在solver.prototxt中是:
test_state: { stage: 'test-on-train' }
test_iter: 500
test_state: { stage: 'test-on-test' }
test_iter: 100
test_interval: 500
test_compute_loss: true
base_lr: 0.00001
momentum: 0.9
weight_decay: 0.000005
# The learning rate policy
lr_policy: "inv"
gamma: 0.0001
power: 0.75
# Display every 100 iterations
display: 100
# The maximum number of iterations
max_iter: 65000
# snapshot intermediate results
# solver mode: CPU or GPU
solver_mode: CPU
火车和测试的准确性是:
(test_accuracy)
并且培训准确性是:
我想知道为什么列车精度不会在迭代中发生变化(在TRAIN阶段)。