如何从vowpal wabbit中的上下文强盗中提取输出策略?

时间:2015-02-11 11:46:35

标签: vowpalwabbit

我正在运行这个example用于上下文强盗,例如他们的示例数据:

1:2:0.4 | a c  
3:0.5:0.2 | b d  
4:1.2:0.5 | a b c  
2:1:0.3 | b c  
3:1.5:0.7 | a d  

以命令作为他们的建议: vw -d train.dat --cb 4 --cb_type dr -f traindModel

我想知道如何从这个命令中提取策略以及如何解释它?

然后我去

vw -d train.dat --invert_hash traindModel

并收到此类输出

Num weight bits = 18
learning rate = 0.5
initial_t = 0
power_t = 0.5
using no cache
Reading datafile = ../r-mkosinski/train.dat
num sources = 1
average    since         example     example  current  current  current
loss       last          counter      weight    label  predict features
1.000000   1.000000          1      1.0     1.0000   0.0000        3
4.439352   7.878704          2      2.0     3.0000   0.1931        3
4.457758   4.476164          4      4.0     2.0000   1.4285        3

finished run
number of examples per pass = 5
passes used = 1
weighted example sum = 5
weighted label sum = 13
average loss = 4.14973
best constant = 2.6
total feature number = 16

如何干预这些结果?如何提取政策?

我也尝试过这种命令:

vw -d train.dat --cb 4 --cb_type dr  --invert_hash p2222.txt

并得到以下结果:

Version 7.8.0
Min label:0.000000
Max label:5.000000
bits:18
0 pairs: 
0 triples: 
lda:0
0 ngram: 
0 skip: 
options: --cb 4 --cb_type dr --csoaa 4
:0
 ^a:108232:0.263395
 ^a:108233:-0.028344
 ^a:108234:0.140435
 ^a:108235:0.215673
 ^a:108236:0.234253
 ^a:108238:0.203977
 ^a:108239:0.182416
 ^b:129036:-0.061075
 ^b:129037:0.242713
 ^b:129038:0.229821
 ^b:129039:0.206961
 ^b:129041:0.185534
 ^b:129042:0.137167
 ^b:129043:0.182416
 ^c:219516:0.264300
 ^c:219517:0.242713
 ^c:219518:-0.158527
 ^c:219519:0.206961
 ^c:219520:0.234253
 ^c:219521:0.185534
 ^c:219523:0.182416
 ^d:20940:-0.058402
 ^d:20941:-0.028344
 ^d:20942:0.372860
 ^d:20943:-0.056001
 ^d:20946:0.326036
Constant:202096:0.263742
Constant:202097:0.242226
Constant:202098:0.358272
Constant:202099:0.205581
Constant:202100:0.234253
Constant:202101:0.185534
Constant:202102:0.326036
Constant:202103:0.182416

为什么输出中d只有5条记录,cba只有7条记录?它是否与数据cba在数据中出现3次而d仅出现2次?还有8个常量行......它们对应的是什么?

1 个答案:

答案 0 :(得分:4)

  

vw -d train.dat --invert_hash traindModel

此处未指定上下文强制,因此vw执行简单的线性回归。

  

如何干预这些结果?

请参阅https://github.com/JohnLangford/vowpal_wabbit/wiki/Tutorial#vws-diagnostic-information

  

还有8个常量行......它们对应的是什么?

大众语境中的语境强盗是使用 reduction 来实现的(在这种情况下)对成本敏感的一对一多类分类。而csoaa又被实现为线性回归的简化。使用--csoaa 4时,每个"原始功能"与所有可能的输出标签(或上下文强盗的动作)相结合,因此有四个功能(不幸的是,它们具有相同的名称)而不是一个原始功能在--invert_hash输出中,所以你不能确定哪个标签对应哪个特征,但是它们有不同的散列,所以你看到这些是不同的特征)。

我认为上下文强盗还需要增加特征的数量,但我不确定给定的--cb_type的乘法因素是什么。从示例中,我们看到它至少为2,因为最多有8个具有相同名称的要素,而--csoaa 4仅对因子4负责。

  

为什么输出中d只有5条记录,c,b,a为7条

零重量的特征未存储在模型中。

  

是否对应于c,b,数据发生3次,d只发生2次?

不知怎的,是的,但不是直接的。如上所述, - invert_hash中的特征对应于特征标签组合(即原始特征和输出标签=动作的组合)。如果没有正确预测给定的例子(在线学习期间),将增加feature-correct_label权重并且将降低feature-predict_label权重(这是一对一减少的效果)。因此,如果在训练数据中从未看到给定的特征标签组合,则其重量可能保持为零(它将永远不会增加或减少)。