本文的核心思想是是将Attention mechanism 用到FM的second-order relations的建模当中,这个过程理所当然的用到了NN技术。

具体做法:

为每个特征之间的关系建立一个向量v_ij, 和v_ji; 用这两个向量替换FM中的v_i 和 v_j;  这样<v_ij, v_ji>就有了新的表达,继而采用向量变换得到想要规模的新向量(最后的形式: 为每一个特征都构造了一个n维的向量,其中每一个维度代表当前特征和其他特征之间的联系)。

将Attention Mechanism用在上述向量当中,得到每一个维度的权重,即attention,最后再把attention分别乘到上述向量当中(wise-product)所谓的attention越大,该两个feature之间的second-order就越重要。



留言

登录 请先登陆, 再留言!