uCTRL: Unbiased Contrastive Representation Learning via Alignment and Uniformity for Collaborative Filtering
06 Jul 2023
본 문서에서는 SIGIR 2023에 게재될 “uCTRL: Unbiased Contrastive Representation Learning via Alignment and Uniformity for Collaborative Filtering” 논문을 소개합니다. 논문의 상세 정보는 아래와 같습니다.
Title: uCTRL: Unbiased Contrastive Representation Learning via Alignment and Uniformity for Collaborative Filtering
Authors: Jae-woong Lee, Seongmin Park, Mincheol Yoon, Jongwuk Lee
Conference: ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR 2023, short paper)
인기도 편향과 문제점 (Popularity Bias and Its Issues)
추천 시스템은 사용자의 피드백인 클릭 데이터를 이용하여 추천 모델을 학습합니다. 하지만 클릭 데이터에는 대표적으로 인기도 편향이 존재합니다. 인기도 편향은 인기 있는 소수의 항목에 많은 사용자의 피드백이 편향되어 있는 것을 의미합니다. 그림 1은 대표적 추천 데이터 중 하나인 Amazon Book 데이터의 항목에 따른 사용자 피드백 (클릭) 분포를 의미합니다. 그림에서 보는 것과 같이 소수의 항목에 대부분의 피드백이 모여 있음을 볼 수 있습니다.
<그림 1> 대표적 추천 데이터 중 하나인 Amazon Book 데이터의 항목에 따른 사용자 피드백 분포. 소수의 항목에 대부분의 피드백 (클릭)이 모여 있습니다. (Longqi Yang et al., “Unbiased Offline Recommender Evaluation for Missing-Not-At-Random Implicit Feedback,” RecSys 2018 참조)
이러한 인기도 편향이 존재하는 추천 데이터로 추천 모델을 학습하면, 모델은 클릭이 많은 인기 있는 항목을 사람들이 좋아하는 항목이라 여겨서, 인기있는 항목을 주로 추천하게 됩니다. 이는 사용자들의 실제 항목에 대한 선호도를 반영하지 못한 추천 결과이며, 사용자가 실제로 선호하는 항목을 잘 추천 하기 위해서는 편향을 제거하여 추천 모델을 학습할 필요가 있습니다. 따라서 저희는 최근 많이 연구되고 있는 대조 학습에 편향을 제거하는 방법을 적용한 연구를 진행하였습니다.
정렬 & 균일과 기존 연구의 문제점 (Alignment & Uniformity and the Limitations of Existing Studies)
최근에 머신러닝 분야에서 각광받고 있는 연구 주제는 대조 손실 함수입니다. 대조 손실 함수는 컴퓨터 비전 분야에서 제안되었으며, 단위 공간 (Unit space)에서 유사한 이미지는 가깝게 위치시키고 다른 이미지는 멀게 위치시키도록 하여 효과적으로 이미지가 표현되도록 학습 시키기 위해 고안된 손실 함수입니다. 대조 손실 함수를 이용해 모델을 학습하면, 이미지의 표현들이 균일 (uniformity)되며, 유사한 것은 가깝게 정렬 (Alignment)됩니다. 따라서 최근에는 정렬과 균일을 직접 최적화하는 방법이 제안되었습니다.
최근 추천 시스템에도 정렬과 균일을 직접 최적화하여 추천 성능을 높이는 연구 (Chenyang Wang et al., "Towards Representation Alignment and Uniformity in Collaborative Filtering," KDD 2022)가 진행되었습니다. 추천 시스템은 이미지와 다르게 사용자와 항목으로 이루어져 있기 때문에 단위 공간에서 사용자와 항목의 표현들을 각각 균일하게 하며, 사용자가 클릭한 항목의 표현을 가깝게 학습합니다. 아래 그림2는 추천 시스템에서의 균일과 정렬을 표현한 그림입니다.
<그림 2> 추천 시스템에서의 정렬 (Alignment)과 균일 (uniformity). 정렬은 사용자가 클릭한 항목의 표현을 가깝게 하며, 균일은 사용자와 항목 각각의 표현을 균일하게 최적화합니다.
하지만, 추천 시스템의 클릭에는 편향이 존재하며, 기존에 정렬과 균일을 최적화 하는 방법은 편향을 고려하지 못하였습니다. 따라서, 제안 방법은 정렬과 균일을 최적화 할 때 편향을 제거하여 사용자가 항목을 실제 선호하는 정도에 따라 정렬을 최적화합니다.
제안 방법 (Proposed Method)
<그림 3> 제안 방법. 제안 방법은 (1) 사용자와 항목을 고려하여 사용자가 항목을 볼 확률을 예측하는 부분 (왼쪽 초록색 박스의 모델)과 (2) 예측된 사용자가 항목을 볼 확률을 이용하여 정렬을 최적화 할 때 편향을 제거하여 최적화 하는 부분 (오른쪽 노란 박스의 모델)으로 이루어져 있습니다.
그림 3은 제안 방법을 그림으로 나타낸 것 입니다. 우리는 기존의 정렬과 균일을 직접 최적화하는 대조 손실 함수에서 사용자와 항목을 모두 고려하여 편향을 제거하는 방법인 Unbiased ConTrastive Representation Learning (uCTRL)을 제안합니다.
제안 방법은 먼저, 클릭을 이용하여 사용자와 항목의 표현을 정렬하는 기존 손실 함수에 대하여 클릭의 편향을 제거하여 사용자와 항목의 표현을 정렬하기 위하여, 편향 제거 방법인 IPW(inverse propensity weighting)를 정렬 함수에 적용하여 최적화 합니다. 이는 사용자의 항목에 대한 실제 선호도를 기반으로 사용자와 항목의 표현을 학습하도록 해줍니다.
여기서, IPW는 클릭에 대하여 사용자가 항목을 볼 확률을 나눠줌으로써 클릭에 포함되어 있는 편향을 제거하는 방법이며, 사용자가 항목을 볼 확률을 잘 예측하는 것이 핵심입니다. 우리는 사용자가 항목을 볼 확률을 예측하기 위하여, 사용자와 항목의 표현을 투영 행렬 (Projection matrix)를 이용하여 볼 확률에 대한 공간으로 투영시키고 투영된 사용자와 항목 표현을 내적하여 볼 확률을 구합니다. 기존의 사용자가 항목을 볼 확률을 예측할 때는 주로 항목의 특성만을 고려하였지만, 제안 방법은 사용자와 항목의 특성을 모두 고려할 수 있기 때문에 더 효과적으로 사용자가 항목을 볼 확률을 예측합니다.
실험 (Experiments)
우리는 실험을 통해 제안 방법인 uCTRL이 네 개의 벤치마크 데이터셋 (MovieLens 1M, Gowalla, Yelp 및 Yahoo! R3)에서 최신 편향 제거 모델보다 우수한 성능을 보이는 것을 검증하였습니다. 편향 제거의 우수성을 검증하기 위해 우리는 균등 샘플링 (Uniform sampling)을 통해 MovieLens 1M, Gowalla, Yelp 데이터의 평가 데이터를 만들었으며, 설문을 통해 편향이 제거된 상태로 평가 데이터를 수집한 Yahoo! R3 데이터를 이용하였습니다. 표 1은 제안 방법이 기존 편향 제거 방법 및 대조 손실 학습 방법보다 효과적으로 편향을 제거하여 평가 성능이 높은 것을 보여줍니다.
<표 1> 기존 편향 제거 방법 및 대조 손실 학습 방법과의 비교 결과. 다섯 번의 실험을 평균한 결과이며 *과 **는 DirectAU와의 일방향 t-검정에서 𝑝 < 0.05와 𝑝 < 0.01을 나타냅니다. Gain은 DirectAU 대비 개선 비율을 나타내며, 가장 우수한 모델은 굵은 글꼴로 표시됩니다. 표를 통해 제안 방법이 성능이 높음을 알 수 있습니다.
결론 (Conclusion)
이 연구는 추천 시스템에서 클릭과 같은 암묵적 피드백을 이용하여 학습할 때, 사용자의 피드백이 주로 인기있는 사용자와 항목에 편향되어 있어서 이로 인해 사용자와 항목의 표현(representation)이 실제 사용자와 항목의 선호도와 다르게 학습되는 문제를 해결한 논문입니다. 이 연구에서 우리는 기존의 추천에서 편향을 제거하는 연구들이 (i) 더 나은 표현 학습을 위해 널리 사용되는 대조 손실 함수(contrastive loss)를 고려하지 않는다는 것과 (ii) 편향 제거 시, 사용자와 항목을 모두 고려하지 않는다는 것을 지적하고 이를 보완하였습니다. 또한 실험을 통해 제안 방법이 기존 편향 제거 방법 및 대조 손실 학습 방법보다 효과적으로 편향을 제거하는 것을 검증하였습니다. 본 논문은 다음 링크에서 확인할 수 있습니다. (uCTRL)