首页|基于上下文增强的多级注意力会话推荐模型

基于上下文增强的多级注意力会话推荐模型

扫码查看
会话推荐的目标是仅根据用户在匿名会话中有限的交互行为,来预测用户的下一次点击行为。最近几年,许多基于图神经网络的会话推荐方法取得了可喜的结果。然而,这些方法仍然存在不足之处。一方面,基于图神经网络的方法只考虑物品之间的转换模式,忽略了会话中的序列模式。另一方面,现有的大多数方法都只关注当前会话内部的信息,忽略了来自邻居会话的外部协作信息,即上下文模式。为了解决上述问题,本文提出了一种新颖的基于上下文增强的多级注意力会话推荐模型(CEMA),通过多级注意力机制分别在物品级和会话级这两个粒度上学习物品特征和建模用户偏好,以增强模型的个性化推荐能力。CEMA模型利用多层GraphSAGE来学习物品之间复杂的转换模式,以捕获用户的局部偏好。特别地,在CEMA模型中设计了一种物品级注意力机制,通过门控注意力单元计算会话中不同物品的重要性,以识别用户真正感兴趣的物品,避免噪声物品的干扰。这有助于准确地捕获会话的序列模式,以建模用户的全局偏好。此外,所提出的方法还设计了一种会话级注意力机制,通过简单的软注意力高效地计算不同会话之间的相似度,以聚焦于那些与当前会话最相似的邻居会话,并从中提取上下文模式,以帮助预测用户的下一次点击。本文在3个公开的基准数据集上进行了一系列实验,实验结果表明CEMA的推荐性能超过了现有最好的方法,充分验证了 CEMA的有效性和优越性。
Context enhanced multi-level attention model for session-based recommendation
Session-based recommendation aims to predict users'next click based on their interactions in anonymous sessions.While graph neural network(GNN)-based methods have shown promising results,they still have limitations.GNN-based methods overlook the session's sequential patterns and only consider transition patterns between items.Furthermore,most methods focus solely on the internal information of the current session and ignore external collaborative information from neighboring sessions,i.e.,contextual patterns.To address these issues,we propose a context enhanced multi-level attention model(CEMA),which uses multi-level attention mechanisms to learn item features and model user preferences at both item and session levels.CEMA applies a multi-layer GraphSAGE to learn complex transition patterns between items to capture local user preferences.The item-level attention mechanism in CEMA employs a gate attention unit to calculate item importance,identify user interests,and avoid noise interference.This helps capture the sequential patterns in the session to model users'global preferences.Moreover,a session-level attention mechanism is designed to efficiently calculate the similarity between sessions and extract contextual patterns to predict users'next click.Experiments conducted on three public benchmark datasets demonstrate CEMA's superior performance compared to existing methods.

session-based recommendationmulti-level attention mechanismgraph neural networksequential patternscontextual patterns

曾碧卿、池俊龙、陈嘉涛、谢梁琦

展开 >

华南师范大学软件学院,佛山 528225

会话推荐 多级注意力机制 图神经网络 序列模式 上下文模式

国家自然科学基金面上项目国家自然科学基金项目广东省基础与应用基础研究基金项目广东省普通高校人工智能重点领域专项广州市基础研究计划基础与应用基础研究项目

62271217120012082021A15150111712019KZDZX1033202102080282

2024

中国科学F辑
中国科学院,国家自然科学基金委员会

中国科学F辑

CSTPCD北大核心
影响因子:1.438
ISSN:1674-5973
年,卷(期):2024.54(9)