이재웅 박사과정, 박성민 석박통합과정, 윤민철 석사과정 SIGIR 2023 국제 학술대회 논문 채택

05 Apr 2023

DIAL 연구실 소속 인공지능학과 이재웅(박사과정, 제1저자) 학생, 박성민(석박통합과정, 제2저자) 학생, 윤민철(석사과정, 제3저자) 학생, 이종욱(교신저자) 교수가 참여한 "uCTRL: Unbiased Contrastive Representation Learning via Alignment and Uniformity for Collaborative Filtering” 논문이 데이터마이닝 분야 최우수 국제 학술대회인 ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR 2023, short paper)에 최종 게재가 승인되었으며 오는 7월에 발표될 예정입니다.

이 연구는 추천 시스템에서 암묵적 피드백(e.g., 클릭 등)을 이용하여 학습할 때, 암묵적 피드백이 주로 인기있는 사용자와 항목에 편향되어 있어서 이로 인해 사용자와 항목의 표현(representation)이 실제 사용자와 항목의 선호도와 다르게 학습되는 문제를 해결한 논문입니다. 이 연구에서 우리는 기존의 추천에서 편향을 제거하는 연구들이 (i) 더 나은 표현 학습을 위해 널리 사용되는 대조 손실 함수(contrastive loss)를 고려하지 않는다는 것과 (ii) 편향 제거 시, 사용자와 항목을 모두 고려하지 않는다는 것을 지적하고 이를 보완하였습니다.

이 연구에서 우리는 Unbiased ConTrastive Representation Learning (uCTRL)을 제안합니다. 먼저, 기존에 추천 시스템에서 대조 손실 함수를 이용한 모델인 DirectAU 에서 영감을 받아, 대조적인 표현 학습을 정렬(alignment)과 균일성(uniformity) 두 가지 손실 함수로 나타냅니다. 정렬 함수는 사용자-항목 상호작용에 대해 사용자와 항목의 표현을 비슷하게 합니다. 균일성 함수는 각 사용자 및 항목 분포를 균등하게 나타냅니다. 우리는 정렬 함수가 사용자와 항목의 인기도에 편향되어 있다는 것을 확인하였으며, 편향을 추정한 뒤에 이를 이용하여 편향을 제거하는 방법인 IPW(inverse propensity weighting)를 이용하여 편향을 제거합니다. 추가적으로 우리는 IPW에서 사용되는 사용자와 항목을 모두 고려하여 편향을 추정하는 새로운 방법을 개발하여 하였습니다. 우리의 실험 결과는 제안된 uCTRL이 네 개의 벤치마크 데이터셋(MovieLens 1M, Gowalla, Yelp 및 Yahoo! R3)에서 최신 편향제거 모델보다 우수한 성능을 보인다는 것을 보여주었습니다.

제안된 uCTRL. 우리는 편향을 제거하기 위해 성향 점수 (\hat{\omega}_{ui})를 정렬(alignmnet) 손실 함수에 적용하여 편향을 제거합니다. 성향 점수는 사용자와 항목을 모두 고려하여 예측됩니다.


“uCTRL: Unbiased Contrastive Representation Learning via Alignment and Uniformity for Collaborative Filtering”, Jae-woong Lee, Seongmin Park, Mincheol Yoon, Jongwuk Lee. The 46th International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR 2023)

[ABSTRACT] Because implicit user feedback for the collaborative filtering (CF) models is biased toward popular items, CF models tend to yield recommendation lists with popularity bias. Previous studies have utilized inverse propensity weighting (IPW) or causal inference to mitigate this problem. However, they solely employ either pointwise or pairwise loss functions and neglect to adopt a contrastive loss function for learning meaningful user and item representations. In this paper, we propose Unbiased ConTrastive Representation Learning (uCTRL), optimizing alignment and uniformity functions derived from the InfoNCE loss function for CF models. Specifically, we formulate an unbiased alignment function used in uCTRL. We also devise a novel IPW estimation method that removes the bias of both users and items. Despite its simplicity, extensive experimental results show that uCTRL equipped with existing CF models consistently outperforms state-of-the-art unbiased recommender models, up to 12.22% for Recall@20 and 16.33% for NDCG@20 gains, on four benchmark datasets.