-
Notifications
You must be signed in to change notification settings - Fork 45
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
关于注意力分数的计算 #35
Comments
也就是我不太懂gama^(k+1)(a1)、gama^(k+1)(a2)【全局图上的attention】和alpha^(k+1)(ab)、beta^(k+1)(ai)【局部图上的attention】计算方式的不同,为什么gama^(k+1)(a1)、gama^(k+1)(a2)将两个embedding全连接之后输入MLP计算attention,而alpha^(k+1)(ab)、beta^(k+1)(ai)分别使用只用户embedding、物品embedding输入MLP计算attention。 |
二者的区别是node attention 与 graph attention的区别吗?因为用户是处于社交网络和兴趣网络上的,所以需要一个graph attention ,而物品只处于兴趣网络上,因此只需要node attention。 我想问,可以去掉user的node attention,只使用graph attention吗?也就是去掉中间变量p和q的计算过程。您考虑使用node attention,是因为实验效果更好吗? |
你好,我也注意到文章中的注意力是通过用户与用户交互的物品连接通过mlp得到注意力得分,但是代码中是直接将用户嵌入和用户的邻居嵌入输入mlp得到分数并且做归一化,这两个好像并不一样。我也想知道如果按照文章的说法用代码实现改如何去做,如何通过mlp计算用户和连接物品的注意力得分然后再做图卷积呢? |
@lijunweiyhn 已经@作者了,我不太清楚具体的实现哈。 |
您好!我对在使用社交网络和兴趣网络更新用户表示过程中,注意力分数的计算有些疑问。
首先,
从以上代码可以看出 gama^(k+1)(a1) =1/2* self.consumed_items_attention,gama^(k+1)(a2) =1/2* self.social_neighbors_attention。gama^(k+1)(a1)和gama^(k+1)(a2)也确实是利用了使用到MLP的GAT实现的。
我看到您论文中提及,
说alpha^(k+1)(ab)和beta^(k+1)(ai)的计算过程也是和gama的计算过程类似,使用MLP借助两个embedding得到。但是,我去看了源码中beta^(k+1)_(ai)的计算过程,我发现,beta与gama的计算过程存在差别,感觉并没有借助两个embedding,倒像是随机产生的。
期待您的回复!
The text was updated successfully, but these errors were encountered: