我正在运行这个example用于上下文强盗,例如他们的示例数据:
1:2:0.4 | a c
3:0.5:0.2 | b d
4:1.2:0.5 | a b c
2:1:0.3 | b c
3:1.5:0.7 | a d
以命令作为他们的建议:
vw -d train.dat --cb 4 --cb_type dr -f traindModel
我想知道如何从这个命令中提取策略以及如何解释它?
然后我去
vw -d train.dat --invert_hash traindModel
并收到此类输出
Num weight bits = 18
learning rate = 0.5
initial_t = 0
power_t = 0.5
using no cache
Reading datafile = ../r-mkosinski/train.dat
num sources = 1
average since example example current current current
loss last counter weight label predict features
1.000000 1.000000 1 1.0 1.0000 0.0000 3
4.439352 7.878704 2 2.0 3.0000 0.1931 3
4.457758 4.476164 4 4.0 2.0000 1.4285 3
finished run
number of examples per pass = 5
passes used = 1
weighted example sum = 5
weighted label sum = 13
average loss = 4.14973
best constant = 2.6
total feature number = 16
如何干预这些结果?如何提取政策?
我也尝试过这种命令:
vw -d train.dat --cb 4 --cb_type dr --invert_hash p2222.txt
并得到以下结果:
Version 7.8.0
Min label:0.000000
Max label:5.000000
bits:18
0 pairs:
0 triples:
lda:0
0 ngram:
0 skip:
options: --cb 4 --cb_type dr --csoaa 4
:0
^a:108232:0.263395
^a:108233:-0.028344
^a:108234:0.140435
^a:108235:0.215673
^a:108236:0.234253
^a:108238:0.203977
^a:108239:0.182416
^b:129036:-0.061075
^b:129037:0.242713
^b:129038:0.229821
^b:129039:0.206961
^b:129041:0.185534
^b:129042:0.137167
^b:129043:0.182416
^c:219516:0.264300
^c:219517:0.242713
^c:219518:-0.158527
^c:219519:0.206961
^c:219520:0.234253
^c:219521:0.185534
^c:219523:0.182416
^d:20940:-0.058402
^d:20941:-0.028344
^d:20942:0.372860
^d:20943:-0.056001
^d:20946:0.326036
Constant:202096:0.263742
Constant:202097:0.242226
Constant:202098:0.358272
Constant:202099:0.205581
Constant:202100:0.234253
Constant:202101:0.185534
Constant:202102:0.326036
Constant:202103:0.182416
为什么输出中d
只有5条记录,c
,b
,a
只有7条记录?它是否与数据c
,b
,a
在数据中出现3次而d
仅出现2次?还有8个常量行......它们对应的是什么?
答案 0 :(得分:4)
vw -d train.dat --invert_hash traindModel
此处未指定上下文强制,因此vw执行简单的线性回归。
如何干预这些结果?
请参阅https://github.com/JohnLangford/vowpal_wabbit/wiki/Tutorial#vws-diagnostic-information
还有8个常量行......它们对应的是什么?
大众语境中的语境强盗是使用 reduction 来实现的(在这种情况下)对成本敏感的一对一多类分类。而csoaa又被实现为线性回归的简化。使用--csoaa 4
时,每个"原始功能"与所有可能的输出标签(或上下文强盗的动作)相结合,因此有四个功能(不幸的是,它们具有相同的名称)而不是一个原始功能在--invert_hash输出中,所以你不能确定哪个标签对应哪个特征,但是它们有不同的散列,所以你看到这些是不同的特征)。
我认为上下文强盗还需要增加特征的数量,但我不确定给定的--cb_type的乘法因素是什么。从示例中,我们看到它至少为2,因为最多有8个具有相同名称的要素,而--csoaa 4
仅对因子4负责。
为什么输出中d只有5条记录,c,b,a为7条
零重量的特征未存储在模型中。
是否对应于c,b,数据发生3次,d只发生2次?
不知怎的,是的,但不是直接的。如上所述, - invert_hash中的特征对应于特征标签组合(即原始特征和输出标签=动作的组合)。如果没有正确预测给定的例子(在线学习期间),将增加feature-correct_label权重并且将降低feature-predict_label权重(这是一对一减少的效果)。因此,如果在训练数据中从未看到给定的特征标签组合,则其重量可能保持为零(它将永远不会增加或减少)。