本文除了像传统POI推荐那样,考虑POI之间的前后次序信息(Geographical influence),还考虑了POI的文本信息,这个文本信息来自于用户对其访问过的POI的描述信息。本文把这些描述信息用单词list的形式刻画出来。这样单词之间就有了同POI一样的序的关系。这样就可以利用skip-gram的思想(给定一个POI,那么他前面出现的POI和后面出现的POI应该同这个POI很近,表现为条件概率)学习出POI embedding和word embedding。

 

学习得到的POI embedding和word embedding,可以进一步用在LSTM等需要init item embedding的模型当中,这也是文中说的,其他方法在使用LSTM等模型时,vector 多是随机初始化的,而本文利用POI2Vec的方法学出的embedding可以最为其他方法的init vectors。(或许有其他的方法也可以结合POI2Vec和LFM)



留言

登录 请先登陆, 再留言!