Why is Normalization Necessary for Linear Recommenders?
10 Apr 2025
10 Apr 2025
SIGIR 2025์ ๊ฒ์ฌ๋ ๋ ผ๋ฌธ โWhy is Normalization Necessary for Linear Recommenders?โ์ ์๊ฐํฉ๋๋ค. ๋ ผ๋ฌธ์ ์์ธ ์ ๋ณด๋ ์๋์ ๊ฐ์ต๋๋ค.
Introduction
์ถ์ฒ ์์คํ ์์ linear autoencoder (LAE) ๊ธฐ๋ฐ ๋ชจ๋ธ์ ๋จ์ํจ์๋ ๋ถ๊ตฌํ๊ณ ์ ๊ฒฝ๋ง ๊ธฐ๋ฐ ์ถ์ฒ ๋ชจ๋ธ๊ณผ ๋น๊ตํ ๋งํ ์ฑ๋ฅ๊ณผ ๋ ๋น ๋ฅธ ์ถ๋ก ์๋๋ฅผ ๋ณด์ฌ์ฃผ๊ณ ์์ต๋๋ค [1]. ํ์ง๋ง LAE๋ ๋ ๊ฐ์ง ์ค์ํ ๋ฌธ์ ์ ์ง๋ฉดํด ์์ต๋๋ค:ย
Popularity bias: ์ธ๊ธฐ ์๋ ์์ดํ ์ด ๊ณผ๋ํ๊ฒ ์ถ์ฒ๋๋ ๋ฌธ์ [2, 3]
Neighborhood bias: ์ง์ญ์ ์ธ ์์ดํ ์๊ด๊ด๊ณ์ ๊ณผ๋ํ๊ฒ ์ด์ ์ ๋ง์ถ๋ ๋ฌธ์ [4]
Figure 1์์ ๋ณด๋ฏ์ด ์ ๊ทํ๊ฐ ์๋ LAE (W/O Norm.)๋ ์ฃผ๋ก ์ธ๊ธฐ ์์ดํ ์ ์ถ์ฒํ์ฌ Head ์์ดํ ์์๋ ๋์ ์ฑ๋ฅ์ ๋ณด์ด์ง๋ง Tail ์์ดํ ์์๋ ๋ฎ์ ์ฑ๋ฅ์ ๋ณด์ ๋๋ค. ๋ฐ๋ฉด ์ ๊ทํ๋ฅผ ์ ์ฉํ LAE (W/ Norm.)๋ Tail ์ฑ๋ฅ์ ํฌ๊ฒ ํฅ์์ํค๋ฉด์๋ Head ์ฑ๋ฅ์ ๊ฒฝ์๋ ฅ ์๊ฒ ์ ์งํฉ๋๋ค. ML-20M๊ณผ Yelp2018์์ ๊ฐ๊ฐ 12,700%์ 349%์ Tail ์ฑ๋ฅ ํฅ์์ ๋ณด์ฌ์ค๋๋ค.
Figure 2๋ ์ ๊ทํ๊ฐ ๋ฐ์ดํฐ์ ์ homophily ํน์ฑ์ ๋ฐ๋ผ ์ฑ๋ฅ์ ๋ฏธ์น๋ ์ํฅ์ ๋ณด์ฌ์ค๋๋ค. ์ ๊ทํ๋ ๋ชจ๋ ๋ฐ์ดํฐ์ ์์ ์ผ๊ด๋๊ฒ ์ฑ๋ฅ์ ํฅ์์ํค๋ฉฐ, ํนํ global item correlations์ด ํ๋ถํ high-homophilic ๋ฐ์ดํฐ์ (ML-20M, Netflix, MSD)์์ ๋ ํฐ ์ฑ๋ฅ ํฅ์์ ๋ณด์ ๋๋ค.
๋ณธ ๋ ผ๋ฌธ์์๋ LAE๋ฅผ ์ํ ๋ ๊ฐ์ง ๊ธฐ์กด ์ ๊ทํ ๋ฐฉ๋ฒ (random-walk [5]์ symmetric normalization [6])์ ํจ๊ณผ๋ฅผ ๋ถ์ํ๊ณ , ๋ฐ์ดํฐ์ ํน์ฑ์ ๋ง๊ฒ popularity bias์ neighborhood bias๋ฅผ ์ ์ฐํ๊ฒ ์ ์ดํ ์ ์๋ ์๋ก์ด ์ ๊ทํ ์๋ฃจ์ ์ธ Data-Adaptive Normalization (DAN)์ ์ ์ํฉ๋๋ค.
Figure 1: ML-20M๊ณผ Yelp2018 ๋ฐ์ดํฐ์ ์์ ์ธ๊ธฐ ์๋ ์์ดํ (Head)๊ณผ ์ธ๊ธฐ ์๋ ์์ดํ (Tail)์ ์ฑ๋ฅ ๋น๊ตย
Figure 2: ๋์ ๋์ง์ฑ (High-homophilic)๊ณผ ๋ฎ์ ๋์ง์ฑ (Low-homophilic) ๋ฐ์ดํฐ์ ๊ทธ๋ฃน์ ๋ํ ์ฑ๋ฅ ๋น๊ตย
Linear Autoencoders (LAEs)
LAE๋ ์ฌ์ฉ์-์์ดํ ์ํธ์์ฉ ํ๋ ฌ X โ {0, 1}^(mรn) (m๋ช ์ ์ฌ์ฉ์, n๊ฐ์ ์์ดํ )์ ๊ธฐ๋ฐ์ผ๋ก ์์ดํ -์์ดํ ๊ฐ์ค์น ํ๋ ฌ B โ R^(nรn)์ ํ์ตํ์ฌ ์๋ ํ๋ ฌ X๋ฅผ ํ๋ ฌ ๊ณฑ์ XยทB๋ก ์ฌ๊ตฌ์ฑํฉ๋๋ค. ๊ตฌ์ฒด์ ์ผ๋ก, LAE์ ๋ชฉ์ ํจ์ (objective function)์ ๋ซํ ํด (closed-form solution)๋ ๋ค์๊ณผ ๊ฐ์ต๋๋ค:ย
Proposed Normalization
์ ๋ ๊ฐ์ง challenge๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํด DAN (Data-Adaptive Normalization)์ ์ ์ํฉ๋๋ค. DAN์ ๋ ๊ฐ์ง ํต์ฌ ์ปดํฌ๋ํธ๋ก ๊ตฌ์ฑ๋ฉ๋๋ค.ย
Item-adaptive normalization: ํ๋ผ๋ฏธํฐ ฮฑ๋ฅผ ํตํด popularity bias๋ฅผ ์กฐ์ ํ๊ณ , LAE์ denoising effect๋ฅผ ๋ถ์ฌํฉ๋๋ค.
Figure 3์ ML-20M ๋ฐ์ดํฐ์ ์์ ๋ค์ํ ฮฑ ๊ฐ์ ๋ฐ๋ฅธ head์ tail ์์ดํ ์ ๊ฐ์ค์น ๋ถํฌ๋ฅผ ๋ณด์ฌ์ค๋๋ค. ์ ๊ทํ๊ฐ ์์ ๋ (Figure-3a), head ์์ดํ ์ ๋น๋ฒํ ๋ฐ์์ผ๋ก ์ธํด ํฐ ๊ฐ์ค์น๋ก ์ง๋ฐฐ์ ์ ๋๋ค. ฮฑ = 0 (Figure-3b)์ผ ๋, ์ ๊ทํ๋ ์์ค ์์ดํ ์ธ๊ธฐ๋๋ง ๊ณ ๋ คํ์ฌ head ์์ดํ ์ง๋ฐฐ๋ฅผ ๋ถ๋ถ์ ์ผ๋ก ์ํํฉ๋๋ค. ฮฑ = 0.5 (Figure-3c)์์๋ ์์ค์ ํ๊ฒ ์์ดํ ๋ชจ๋ ์ ๊ทํํ์ฌ head-tail ๋ถํฌ ๊ฒฉ์ฐจ๋ฅผ ๋ ์ค์ด์ง๋ง ์ฌ์ ํ ํฐ ์ฐจ์ด๊ฐ ์์ต๋๋ค. ๋ฐ๋ฉด item-adaptive normalization (ฮฑ = 0.2, Figure-3d)์ ๋์ ์กฐ์ ์ ํตํด ๊ฐ์ฅ ๊ท ํ ์กํ ๋ถํฌ๋ฅผ ๋ฌ์ฑํฉ๋๋ค.ย
User-adaptive normalization: ํ๋ผ๋ฏธํฐ ฮฒ๋ฅผ ํตํด neighborhood bias๋ฅผ ์ ์ดํฉ๋๋ค.ย
Figure 4๋ ๋ ๋ฐ์ดํฐ์ ์์ ฮฒ์ ๋ฐ๋ฅธ ๊ณ ์ ๊ฐ ๋ถํฌ๋ฅผ ๋ณด์ฌ์ค๋๋ค. ๊ณ ์ ๊ฐ ์ธ๋ฑ์ค๋ ์ผ์ชฝ์์ ์ค๋ฅธ์ชฝ์ผ๋ก ๊ฐ์๋ก high-frequency ์ฑ๋ถ์ด ์ฆ๊ฐํฉ๋๋ค. ฮฒ๊ฐ 0์์ 1๋ก ์ฆ๊ฐํจ์ ๋ฐ๋ผ ๋๋ถ๋ถ์ ๊ณ ์ ๊ฐ์ด ์ ์ฐจ ๊ฐ์ํ์ฌ 0์ ๊ฐ๊น์์ง์ง๋ง, ๋ช ๊ฐ์ low-frequency ๊ณ ์ ๊ฐ์ ์ฌ์ ํ ์ค์ํ๊ฒ ์ ์ง๋ฉ๋๋ค. ์ด๋ user-adaptive normalization์ด local neighborhood information์ ํํํ๋ high-frequency ์ฑ๋ถ์ ์ต์ ํ๋ฉด์๋ global patterns์ ๋ํ๋ด๋ essential low-frequency ์ฑ๋ถ์ ๋ณด์กดํจ์ ๋ณด์ฌ์ค๋๋ค.ย
Figure 3: ML-20M ๋ฐ์ดํฐ์ ์์ ๋ค์ํ ฮฑ ๊ฐ์ ๋ฐ๋ฅธ ๊ฐ์ค์น ๋ถํฌย
Figure 4: ML-20M๊ณผ Yelp2018 ๋ฐ์ดํฐ์ ์์ ฮฒ์ ๋ฐ๋ฅธ ๊ฐ์ค์น ํ๋ ฌ์ ๊ณ ์ ๊ฐ ๋ถํฌย
DAN์ ์ ์ฉํ LAE์ ๋ชฉ์ ํจ์ (objective function)์ ๋ซํ ํด (closed-form solution)๋ ๋ค์๊ณผ ๊ฐ์ต๋๋ค:ย
Experiments
Overall Performance Comparison
์ ์ ๋ชจ๋ธ DAN์ ํจ๊ณผ๋ฅผ ๊ฒ์ฆํ๊ธฐ ์ํด ์ฌ์ฏ ๊ฐ์ง ๋ฐ์ดํฐ์ (ML-20M, Netflix, MSD, Gowalla, Yelp2018, Amazon-book)์์ ํ๊ฐํ์์ต๋๋ค.
DAN์ ์ฅ์ฐฉํ LAE ๋ชจ๋ธ๋ค (LAE_DAN, EASE_DAN, RLAE_DAN)์ ๋ชจ๋ ๋ฐ์ดํฐ์ ์์ ๊ธฐ์กด LAE ๊ธฐ๋ฐ ๋ชจ๋ธ๋ค๋ณด๋ค ์ผ๊ด๋๊ฒ ์ฑ๋ฅ์ด ํฅ์๋์์ผ๋ฉฐ, tail ์์ดํ ๊ณผ unbiased ํ๊ฐ์์ ์ต๋ 128.57%์ 12.36%์ ์ฑ๋ฅ ํฅ์์ ๋ณด์์ต๋๋ค. ๋ํ, ์ต์ CF ๋ชจ๋ธ (BSPM, TurboCF, SVD-AE)์ ์์๋ ์ฑ๋ฅ์ ๋ณด์ฌ์ฃผ์์ต๋๋ค.
Table 1: Strong generalization ์ค์ ์์ ML-20M, Netflix, MSD ๋ฐ์ดํฐ์ ์ ๋ํ ์ฑ๋ฅ ๋น๊ตย
Table 2: Strong generalization ์ค์ ์์ Gowalla, Yelp2018, Amazon-book ๋ฐ์ดํฐ์ ์ ๋ํ ์ฑ๋ฅ ๋น๊ตย
Hyperparameter Sensitivity
Item-adaptive normalization: Figure 5๋ ํ์ดํผํ๋ผ๋ฏธํฐ ฮฑ๊ฐ ๊ฐ ๋ฐ์ดํฐ์ ์ ์ฑ๋ฅ์ ๋ฏธ์น๋ ์ํฅ์ ๋ณด์ฌ์ค๋๋ค. ๋ชจ๋ ๋ฐ์ดํฐ์ ์์ ฮฑ๊ฐ ์ฆ๊ฐํ ์๋ก Tail ์ฑ๋ฅ์ ํฅ์๋์ง๋ง Head ์ฑ๋ฅ์ ๊ฐ์ํฉ๋๋ค. ์ด๋ ๋์ ฮฑ ๊ฐ์ด ํ๊ฒ ์์ดํ ์ ์ธ๊ธฐ๋์ ๋ ๊ฐํ ์ ๊ทํ๋ฅผ ์ ์ฉํ๊ธฐ ๋๋ฌธ์ ๋๋ค. ๋ํ, ๋ฐ์ดํฐ์ ์ Gini index์ ๋ฐ๋ผ ฮฑ์ ์ํฅ์ด ๋ค๋ฅด๊ฒ ๋ํ๋ฉ๋๋ค. Gini index๊ฐ ๋์ ๋ฐ์ดํฐ์ (ML-20M, Netflix)์ ์๋์ ์ผ๋ก AOA ์ฑ๋ฅ ๋ณํ๊ฐ ์์ ๋ฐ๋ฉด (์ฝ 2.5%), Gini index๊ฐ ๋ฎ์ ๋ฐ์ดํฐ์ (Yelp2018, Amazon-book)์ AOA ์ฑ๋ฅ ๋ณํ๊ฐ ๋ ํฝ๋๋ค (์ฝ 7-9%). ๋ฐ๋ผ์ Gini index๊ฐ ๋์ ๋ฐ์ดํฐ์ ์ ฮฑ๋ฅผ ๋ฎ๊ฒ, ๋ฎ์ ๋ฐ์ดํฐ์ ์ ฮฑ๋ฅผ ๋๊ฒ ์ค์ ํ๋ ๊ฒ์ด ํจ๊ณผ์ ์ ๋๋ค.ย
User-adaptive normalization: Figure 6์ ํ์ดํผํ๋ผ๋ฏธํฐ ฮฒ๊ฐ active ์ฌ์ฉ์ (์์ 20% ํ๋ ์ฌ์ฉ์)์ inactive ์ฌ์ฉ์ (๋๋จธ์ง)์ ์ฑ๋ฅ์ ๋ฏธ์น๋ ์ํฅ์ ๋ณด์ฌ์ค๋๋ค. high-homophilic ๋ฐ์ดํฐ์ (ML-20M, Netflix)์์๋ ฮฒ๊ฐ ์ฆ๊ฐํจ์ ๋ฐ๋ผ active์ inactive ์ฌ์ฉ์ ๋ชจ๋์ ์ฑ๋ฅ์ด ๋จผ์ ํฅ์๋์๋ค๊ฐ ๊ฐ์ํฉ๋๋ค. ์ด๋ ์ด๋ฌํ ๋ฐ์ดํฐ์ ์์ global interaction patterns์ด ์ธ๊ธฐ ์์ดํ ์ ์ ํธํ๊ธฐ ๋๋ฌธ์ ๋๋ค. ๋ฐ๋ฉด, low-homophilic ๋ฐ์ดํฐ์ (Yelp2018, Amazon-book)์์๋ ฮฒ๊ฐ ์ฆ๊ฐํ ์๋ก ๋ ๊ทธ๋ฃน์ ์ฑ๋ฅ์ด ์ผ๊ด๋๊ฒ ๊ฐ์ํฉ๋๋ค. ์ด๋ ์ด๋ฌํ ๋ฐ์ดํฐ์ ์ด ๋ค์ํ local patterns์ ๊ฐ์ง๊ณ ์์ด active ์ฌ์ฉ์์ ๋ํ ๊ณผ๋ํ ์ ๊ทํ๊ฐ ์ด๋ฌํ patterns์ ํ์ตํ๊ธฐ ์ด๋ ต๊ฒ ๋ง๋ค๊ธฐ ๋๋ฌธ์ ๋๋ค. ๋ฐ๋ผ์ weighted homophily ratio๊ฐ ๋์ ๋ฐ์ดํฐ์ ์ ฮฒ๋ฅผ ๋๊ฒ, ๋ฎ์ ๋ฐ์ดํฐ์ ์ ฮฒ๋ฅผ ๋ฎ๊ฒ ์ค์ ํ๋ ๊ฒ์ด ํจ๊ณผ์ ์ ๋๋ค.
Figure 5: ๋ค ๊ฐ์ ๋ฐ์ดํฐ์ ์์ item normalization ํ๋ผ๋ฏธํฐ ฮฑ์ ๋ฐ๋ฅธ NDCG@20ย
Figure 6: ๋ค ๊ฐ์ ๋ฐ์ดํฐ์ ์์ user normalization ํ๋ผ๋ฏธํฐ ฮฒ์ ๋ฐ๋ฅธ NDCG@20ย
Performance Comparison for Various Normalization
Table 3๋ ๋ค์ํ ์ ๊ทํ ๋ฐฉ๋ฒ์ ์ฑ๋ฅ์ ๋ณด์ฌ์ค๋๋ค. DAN์ ๋ ๋ฐ์ดํฐ์ ๋ชจ๋์์ ๊ฐ์ฅ ๋์ AOA (Average-over-all) ์ฑ๋ฅ์ ๋ณด์ด๋ฉด์ Tail ์ฑ๋ฅ๋ ํฌ๊ฒ ํฅ์์์ผฐ์ต๋๋ค. ํนํ, ML-20M์์๋ ์ ๊ทํ ์๋ ๊ฒฝ์ฐ์ ๋นํด Tail ์ฑ๋ฅ์ด 12,700% ํฅ์๋์์ต๋๋ค. ๋ํ, item-adaptive normalization (Item norm)์ ๋ ๋ฐ์ดํฐ์ ์์ ์ผ๊ด๋๊ฒ Tail ์ฑ๋ฅ์ ํฅ์์ํค๋ ๋ฐ๋ฉด, user-adaptive normalization (User norm)์ ๋ฐ์ดํฐ์ ์ ๋ฐ๋ผ ๋ค๋ฅธ ๊ฒฝํฅ์ ๋ณด์ ๋๋ค.ย
Table 3: ML-20M๊ณผ Yelp2018 ๋ฐ์ดํฐ์ ์์ ๋ค์ํ ์ ๊ทํ ๋ฐฉ๋ฒ์ ์ฑ๋ฅ ๋น๊ตย
Case Study
Figure 7์ ์ ๊ทํ ๋ฐฉ๋ฒ์ ๋ฐ๋ฅธ ํน์ ์ฌ์ฉ์์ ์ถ์ฒ ๊ฒฐ๊ณผ๋ฅผ ๋ณด์ฌ์ฃผ๋ฉฐ, ๋ค์๊ณผ ๊ฐ์ ๊ด์ฐฐ์ ํ์ต๋๋ค.
์ ๊ทํ ์๋ LAE (W/O)๋ ์ฌ์ฉ์๊ฐ ๋ก๋งจํฑ ์ํ 3ํธ์ ์์ฒญํ์์๋ 5๊ฐ ๋ชจ๋ ๋์ ์ธ๊ธฐ๋์ ์ก์ ์ํ๋ง ์ถ์ฒํฉ๋๋ค. ๋ฐ๋ฉด, ์ธ ๊ฐ์ง ์ ๊ทํ ๋ฐฉ๋ฒ (RW, Sym, DAN)์ ์ฌ์ฉ์๊ฐ ๋ณธ "Step Up 1"๊ณผ ๊ด๋ จ๋ "Step Up 2"๋ฅผ ์ต์์๋ก ์ถ์ฒํ์ฌ ์ฌ์ฉ์ ์ ํธ๋๋ฅผ ํจ๊ณผ์ ์ผ๋ก ๋ฐ์ํฉ๋๋ค.
DAN์ ์ธ๊ธฐ๋ ํธํฅ์ ์ ์ ํ ์ํํ๋ฉด์๋ ์ฌ์ฉ์ ์ ํธ๋๋ฅผ ์ ์งํ๋ ๊ฐ์ฅ ๊ท ํ ์กํ ์ถ์ฒ์ ์ ๊ณตํฉ๋๋ค. RW ์ ๊ทํ๋ 5๊ฐ ์ค 4๊ฐ๊ฐ ์ธ๊ธฐ ์์ดํ ์ผ๋ก, ์ฌ์ ํ ์ธ๊ธฐ๋ ํธํฅ์ด ๊ฐํฉ๋๋ค. Sym ์ ๊ทํ๋ 5๊ฐ ์ค 4๊ฐ๊ฐ ์ธ๊ธฐ ์๋ ์์ดํ ์ผ๋ก, ์ธ๊ธฐ๋ ํธํฅ์ ๊ณผ๋ํ๊ฒ ์ํํฉ๋๋ค. DAN์ ์ธ๊ธฐ ๋ฐ ๋น์ธ๊ธฐ ์์ดํ ์ ๊ท ํ์ ๋ง์ถ๋ฉด์ ์ฌ์ฉ์ ์ ํธ๋์ ๊ฐ์ฅ ๊ด๋ จ์ฑ ๋์ ์์ดํ ์ ์ถ์ฒํฉ๋๋ค.
Figure 7: ML-20M ๋ฐ์ดํฐ์ ์์ ์ฌ์ฉ์ #91935์ ์ํธ์์ฉ ์ด๋ ฅ๊ณผ ๋ค ๊ฐ์ง ์ ๊ทํ ๋ฐฉ๋ฒ์ Top-5 ์ถ์ฒ ๋ชฉ๋ก. ๋นจ๊ฐ ํ ๋๋ฆฌ๋ head (์์ 20%) ํญ๋ชฉ์ด๊ณ , ํ๋ ํ ๋๋ฆฌ๋ tail (ํ์ 80%) ํญ๋ชฉ
Conclusion
๋ณธ ๋ ผ๋ฌธ์์๋ LAE๋ฅผ ์ํ ๊ฐ๋จํ๋ฉด์๋ ํจ๊ณผ์ ์ธ ์ ๊ทํ ๋ฐฉ๋ฒ์ธ DAN์ ์ ์ํ์ต๋๋ค. DAN์ ๋ฐ์ดํฐ์ ํน์ฑ์ ๋ฐ๋ผ popularity bias์ neighborhood bias๋ฅผ ์ ์์ ์ผ๋ก ์กฐ์ ํ ์ ์์ผ๋ฉฐ, ๋ชจ๋ธ์ ๊ตฌ์ ๋ฐ์ง ์๊ณ ๋ค์ํ LAE ๊ธฐ๋ฐ ๋ชจ๋ธ์ ์ฝ๊ฒ ์ ์ฉํ ์ ์์ต๋๋ค. ์คํ ๊ฒฐ๊ณผ, DAN์ ์ฅ์ฐฉํ LAE๋ 6๊ฐ์ ๋ฒค์น๋งํฌ ๋ฐ์ดํฐ์ ์์ ๊ธฐ์กด LAE ๊ธฐ๋ฐ ๋ชจ๋ธ๋ค๋ณด๋ค ์ผ๊ด๋๊ฒ ์ฑ๋ฅ์ด ํฅ์๋์์ผ๋ฉฐ, ํนํ ์ธ๊ธฐ ์๋ ์์ดํ ๊ณผ unbiased ํ๊ฐ์์ ํฐ ์ฑ๋ฅ ํฅ์์ ๋ณด์์ต๋๋ค.
Reference
[1] S. Rendle, L. Zhang, and Y. Koren, "On the Difficulty of Evaluating Baselines: A Study on Recommender Systems," arXiv preprint arXiv:1905.01395, 2019.
[2] J. Chen et al., "Bias and Debias in Recommender System: A Survey and Future Directions," ACM Trans. Inf. Syst., vol. 41, no. 3, pp. 67:1โ67:39, 2023.
[3] Z. Zhu, Y. He, X. Zhao, Y. Zhang, J. Wang, and J. Caverlee, "Popularity-Opportunity Bias in Collaborative Filtering," in WSDM, 2021, pp. 85โ93.
[4] Z. Mu, J. Lin, X. Zhu, W. Zhang, and Y. Yu, "Invariant Graph Contrastive Learning for Mitigating Neighborhood Bias in Graph Neural Network Based Recommender Systems," in ICANN, vol. 15020, 2024, pp. 143โ158.
[5] C. Cooper, S.-H. Lee, T. Radzik, and Y. Siantos, "Random walks in recommender systems: exact computation and simulations," in WWW, 2014, pp. 811โ816.
[6] X. Wang, X. He, M. Wang, F. Feng, and T.-S. Chua, "Neural Graph Collaborative Filtering," in SIGIR, 2019, pp. 165โ174.
[7] J.Y. Chin, Y. Chen, and G. Cong, "The Datasets Dilemma: How Much Do We Really Know About Recommendation Datasets?," in WSDM, 2022, pp. 141โ149.
[8] Y. Yan et al., "From Trainable Negative Depth to Edge Heterophily in Graphs," in NeurIPS, 2023.