(1)组合用户、POI、Corresponding decision context的一些特征,形成特征集合

(2)为每一个特征学出一个表达

(3)利用scalar projection学出每个特征之间的“weight”(不同于一起直接利用距离,这里用了一个scalar projection,多除了一个向量的模),即self projection attention

(4)让后利用(3)种的“weights”,为每个特征学出一个新的表达

(5)这个新的表达和原来的表达,在NN的作用下,学出一个各个特征对于decision决策的重要程度。

(6)利用上述的重要程度,同原始的特征表达矩阵组合成一个向量(所谓最后的决策向量)

(7)然后让(6)中 的向量尽可能的同所有特征向量之和尽可能接近。(这里有意思的是,利用的向量的加性,从几何角度出发)



留言

登录 请先登陆, 再留言!