如何使用SVM在vowpal wabbit中使用装袋或提升。
我目前的结果是90%的召回率和10%的精确度。
vw -d train.dat -c compressed --passes 10 --oaa 3 -f train.model --loss_function hinge
我想使用装袋/提升来提高精度
答案 0 :(得分:1)
为了提升使用率--boosting N
(最近添加,因此请使用GitHub中的VW)。
对于装袋,请使用--bootstrap M
。请参阅Gradient boosting on Vowpal Wabbit。
我不知道如何定义召回和精确度以分类为3类。让我们假设你现在有一个标准的二元分类(有两个类别:正面和负面),你想要优化F1分数(精度和召回的调和平均值),你有精度= 10%,召回= 90%。因此,只有10%的积极预测的例子是真正积极的。 (这可能是由于测试数据中的不平衡数据或不同比例的正例与训练数据相比而引起的。)在这种情况下,我建议增加重要性权重(参见[{3}}的[重要性])反面例子(或降低正面例子的重要性)。