3

我正在为上下文强盗运行此示例,以他们的示例数据为例:

1:2:0.4 | a c  
3:0.5:0.2 | b d  
4:1.2:0.5 | a b c  
2:1:0.3 | b c  
3:1.5:0.7 | a d  

以命令作为他们的建议: vw -d train.dat --cb 4 --cb_type dr -f traindModel

我想知道如何从该命令中提取策略以及如何解释它?

然后我去

vw -d train.dat --invert_hash traindModel

并收到这样的输出

Num weight bits = 18
learning rate = 0.5
initial_t = 0
power_t = 0.5
using no cache
Reading datafile = ../r-mkosinski/train.dat
num sources = 1
average    since         example     example  current  current  current
loss       last          counter      weight    label  predict features
1.000000   1.000000          1      1.0     1.0000   0.0000        3
4.439352   7.878704          2      2.0     3.0000   0.1931        3
4.457758   4.476164          4      4.0     2.0000   1.4285        3

finished run
number of examples per pass = 5
passes used = 1
weighted example sum = 5
weighted label sum = 13
average loss = 4.14973
best constant = 2.6
total feature number = 16

如何解释这些结果?如何提取策略?

我也尝试过这种类型的命令:

vw -d train.dat --cb 4 --cb_type dr  --invert_hash p2222.txt

并得到以下结果:

Version 7.8.0
Min label:0.000000
Max label:5.000000
bits:18
0 pairs: 
0 triples: 
lda:0
0 ngram: 
0 skip: 
options: --cb 4 --cb_type dr --csoaa 4
:0
 ^a:108232:0.263395
 ^a:108233:-0.028344
 ^a:108234:0.140435
 ^a:108235:0.215673
 ^a:108236:0.234253
 ^a:108238:0.203977
 ^a:108239:0.182416
 ^b:129036:-0.061075
 ^b:129037:0.242713
 ^b:129038:0.229821
 ^b:129039:0.206961
 ^b:129041:0.185534
 ^b:129042:0.137167
 ^b:129043:0.182416
 ^c:219516:0.264300
 ^c:219517:0.242713
 ^c:219518:-0.158527
 ^c:219519:0.206961
 ^c:219520:0.234253
 ^c:219521:0.185534
 ^c:219523:0.182416
 ^d:20940:-0.058402
 ^d:20941:-0.028344
 ^d:20942:0.372860
 ^d:20943:-0.056001
 ^d:20946:0.326036
Constant:202096:0.263742
Constant:202097:0.242226
Constant:202098:0.358272
Constant:202099:0.205581
Constant:202100:0.234253
Constant:202101:0.185534
Constant:202102:0.326036
Constant:202103:0.182416

d为什么输出只有 5 条记录,而c, b,有 7 条记录a?它是否对应于数据中出现 3 次且仅 2 次的特征c, b, ?还有8个常量行..它们对应什么?ad

4

1 回答 1

4

vw -d train.dat --invert_hash traindModel

这里没有指定上下文老虎机,所以 vw 做了一个简单的线性回归。

如何解释这些结果?

https://github.com/JohnLangford/vowpal_wabbit/wiki/Tutorial#vws-diagnostic-information

还有8个常量行..它们对应什么?

VW 中的上下文老虎机是使用减少到(在这种情况下)成本敏感的一对多多类分类来实现的。而 csoaa 反过来又被实现为线性回归的简化。使用时--csoaa 4,每个“原始特征”都与所有可能的输出标签(或在上下文强盗的情况下的动作)相结合,因此有四个特征而不是一个原始特征(不幸的是,它们在 --invert_hash 输出中具有相同的名称,因此您无法确定哪个标签对应于哪个功能,但它们具有不同的哈希值,因此您会看到这些是不同的功能)。

我认为上下文老虎机也需要乘以特征的数量,但我不确定给定 --cb_type 的乘法因子是多少。从例子中,我们看到它至少是 2,因为最多有 8 个同名的特征,而--csoaa 4只对因子 4 负责。

为什么输出中 d 只有 5 条记录,而 c、b、a 有 7 条记录?

权重为零的特征不存储在模型中。

它是否对应于特征 c、b、a 在数据中出现 3 次而 d 仅出现 2 次?

不知何故是的,但不是直接的。如上所述,--invert_hash 中的特征对应于特征标签组合(即原始特征和输出标签=动作的组合)。如果给定的示例没有正确预测(在线学习期间),则会增加 feature-correct_label 权重并减少 feature-predicted_label 权重(这是一对一减少的效果)。因此,如果在训练数据中从未见过给定的特征标签组合,它的权重很可能会保持为零(它永远不会增加或减少)。

于 2015-02-12T11:30:45.863 回答