Search

Inter-sequence Enhanced Framework for Personalized Sequential Recommendation

Abstract Modeling sequential correlation of users’ historical interactions is essential in sequential recommendation. However, the majority of the approaches mainly focus on modeling the intra-sequence item correlation within each individual sequence but neglect the inter-sequence item correlation across different user interaction sequences. Though several studies have been aware of this issue, their method is either simple or implicit. To make better use of such information, we propose an inter-sequence enhanced framework for the Sequential Recommendation (ISSR). In ISSR, both inter-sequence and intra-sequence item correlation are considered. Firstly, we equip graph neural networks in the inter-sequence correlation encoder to capture the high-order item correlation from the user-item bipartite graph and the item-item graph. Then, based on the inter-sequence correlation encoder, we build GRU network and attention network in the intra-sequence correlation encoder to model the item sequential correlation within each individual sequence and temporal dynamics for predicting users’ preferences over candidate items. Additionally, we conduct extensive experiments on three real-world datasets. The experimental results demonstrate the superiority of ISSR over many state-of-the-art methods and the effectiveness of the inter-sequence correlation encoder.
Plain Text
복사

Introduction

주요 키워드
Sequential recommendation (SR) : 순차적인 historical 정보 주어졌을 때, 다음 선호 아이템 예측
intra-sequence item correlation : 한 명의 유저 시퀀스에서 sequetial dependence를 가지는 두 아이템 (user 8 - 1721, 1682)
inter-sequence item correlation : 두 명의 유저 시퀀스에서 공통 노드(아이템)를 가운데 두고 path를 가지는 두 아이템 (공통 노드 1357 - 1721, 1784)
실제 user 90 의 경우 1721 시청 후 1784, 1682 시청 함 → intra-, inter- 모두 유익한 정보
Inter-Sequence enhanced framework for personalized Sequential Recommendation (ISSR) 제안
기존 논문들은 intra-sequence item correlation 위주로 연구 → inter-, intra- 모두 고려
사용자의 일반적인 취향 파악, 데이터 부족 문제 해결에 도움
inter-sequence correlation 파악하기 위해 GNN 사용
Why GNN?
high-order item correlation modeling
intra-sequence correlation 파악 위해 GRU, personalized attention network 사용

Method

Notation
U={u1,u2,...,uU}\mathcal{U} = \{u_1, u_2, ..., u_{| \mathcal{U}|}\} : set of users
V={v1,v2,...,vV}\mathcal{V} = \{v_1, v_2, ..., v_{| \mathcal{V}|}\} : set of items

ISSR

1.
inter-sequence item correlation encoder
2.
intra-sequence item correlation encoder
3.
prediction decoder

1. Inter-sequence Item Correlation Encoder

두 그래프 사용 : user-item bipartite graph / item-item co-occurrence graph
User-item bipartite 그래프
multiple GCN layers 사용해 kk-hop neighbors information을 aggregate
layer-k 마다 다른 neural networks 사용
user, item 노드들의 특징 본질적으로 다르기 때문
Notation
eviRde_{v_i} \in \mathbb{R}^d : initial embedding of item node
gvikRd\mathtt{g}^k_{v_i} \in \mathbb{R}^d : hidden representation of viv_i at layer-kk (그림의 보라색)
zvik1\mathtt {z}^{k-1}_{v_i} : representation of the neighborgood of item node viv_i at layer-(kk-1) (그림의 파란색)
N(v)N(v) : set of 1-hop neighbors of viv_i
QVkRd×dQ^k_{V} \in \mathbb{R}^{d\times d} : weight matrix of item aggregator at layer-kk
qVkRd \mathtt{q}^k_V \in \mathbb{R}^d : bias of item aggregator at layer-kk
γ\gamma : pooling function
σ\sigma : activateion function
PVkRd×dP^k_V \in \mathbb{R}^{d\times d} : transformation weight matrix of item a layer-kk
pp : bias
[;][;] : concatenation
captures the item correlation through multiple-hop neighbors in the user-item biparite graph
Item-Item co-occurrence graph
user-item 그래프의 보완 역할 - item dependence의 빈도를 모델링
node : item
edge : 사용자의 sequence에서 두 아이템이 인접하면 연결 / 가중치는 두 항목이 인접해 발생한 횟수
GCNB_B와 GCNC_C의 차이 : 1)노드의 타입이 하나, 2)weighted edge이기 때문에 이웃 샘플링 전략 다름
요약 : user-item, item-item 두 그래프를 통해 inter-sequence item correlation을 capture

2. Intra-sequence Item Correlation Encoder

목표 : 앞에서 얻은 inter 정보 이용해 intra correlation 모델링
GRU layer : time step에 따른 user의 선호도 표현
Attention network : GRU 통해 얻은 user의 시간에 따른 선호도 이용해 user의 현재 선호도 generating
유저의 현재 선택은 그동안 어떤 선택을 했는지에 따라 달라짐
유저에 따라 temporal dynamics의 sensitivity 정도 다름
peronalized attention netowrk 고안
euie_{u_i} : embedding of the user → attention score 계산할 때 각 hvih_{v_i}와 concat
마지막 아이템은 유저의 최신 관심 가장 잘 반영 → 마지막 hLh_L과 output concat

3. Prediction Decoder

유저의 최종 output (suis_{u_i})과 각 아이템의 임베딩 evie_{v_i}를 내적하고 softmax 거쳐 prediction score 구함

Experiments

MovieLens(1M), Steam, MovieLens(20M)
training set : 유저 시퀀스의 첫번째 70%
val set : 그 다음 10%
test set : 마지막 20%
기존 다른 method에 inter 정보 사용했을 때 성능 좋아짐
ablation