上下文匪徒方法:算法1 LinUCB与不相交的线性模型

时间:2018-07-13 22:48:18

标签: algorithm

我正在尝试从本文“个性化新闻文章推荐的情境盗贼方法” http://rob.schapire.net/papers/www10.pdf

中使用不相交的线性模型实现称为LinUCB的算法。

这是算法: Algorithm 1 LinUCB with disjoint linear models

我对特征向量Xt,a感到困惑(我在算法中强调了这一点)。 特征向量与文章(手臂)或用户的信息(上下文)有关吗?

感谢您的帮助。 谢谢

2 个答案:

答案 0 :(得分:0)

特征向量x_t,a既适用于用户,也适用于手臂。

  

向量xt,a总结了用户ut和手臂a的信息,   并称为上下文。

答案 1 :(得分:0)

在最一般的情况下,特征向量 X_(t,a)被允许为两个用户上下文 c_t function >和手臂 a X_(t,a)= phi(c_t,a)。请注意,这可能只是一个子集:每个手臂可能具有用于预测结果的不同功能,换句话说, X_(t,a) c_t

例如,如果电影推荐网站正在决定推荐哪部电影,则在尝试预测用户是否喜欢科幻电影还是戏剧电影时,他们可能需要来自用户的其他信息。这些不同的信息反映在以下事实上:允许功能随臂而变化。

或者,对于所有 a X_(t,a)可能都是相同的,即 X_(t,a)= X_t 。例如,当尝试学习最佳医疗剂量时,该算法可能希望了解所有患者的身高,体重和年龄。在这种情况下,功能不会随臂而变化。