本文结合了隐因子分解和LDA两种方法。

其中LDA是基于用户对items的reviews来进行学习的,即将所有用户关于某个item的review集合成一个关于该item的document。

具体做法:

(1) 隐因子分解方法有关于items的隐因子向量,而LDA方法有关于item/document的主题分布(向量),通过联系这两个向量从而达到同意的学习目标就是本文的核心。

(2)联系的方法很简单: 将前者通过一定方法归一后,赋值给后者(向量各元素的指数求和,Eq.4)。归一的原因:符合概率分布的特点。文中也利用同样的操作处理了主题-word分布。

(3)最终的优化目标包含了两个部分线性相加: 评分的最小平方差,关于主题模型的极大似然。

(4)迭代优化分别,先求分解因子向量,通过因子向量更新item-topic向量,再利用item-topic向量和topic-Word向量更新词语的主题分配,完了再更新topic-word向量。(这里于LDA的区别在于并不会利用重新分配的主题更新item-topic向量。)

(5)综上,融入review信息的新object,其实就是增加了约束条件。

另外本文有意思的地方:

(1)用真是分类去匹配隐分类 - Genre Discovery

(2)辨别哪些用户的review对item的描述更准确(整体所以用户review而言),算距离 - Identifying Userful Reviews

(3)另外本文所说的解决cold start problem,并不是指new user or new item, 而是,one dose not have enough rating data available. - Even a single review can tell us many of a product's properties, such as ites genre.

(4)归一化处理: 在指数函数里加上一个参数k - Intuitively, large k menas that users only discuss the most important topics, while small k means that users discuss all topics evnly.

(5)另外,本文引入LDA学习方法也值得借鉴- LibRec



留言

登录 请先登陆, 再留言!