최민진 석박통합과정, 이선경 석사과정, 최은성 석박통합과정 NAACL 2021 국제 학술대회 논문 채택
11 Mar 2021
DIAL 연구실 소속 최민진(석·박통합과정, 제1저자) 학생, 이선경(석사과정, 제2저자) 학생, 최은성(석사과정, 제3저자) 학생, 박희수, 이준혁, 이종욱(교신저자) 교수와 이동원(펜실베니아 주립대) 교수가 연구한 “MelBERT: Metaphor Detection via Contextualized Late Interaction using Metaphorical Identification Theories”가 자연어처리 분야 최우수 국제 학술대회인 2021 Annual Conference of the North American Chapter of the Association for Computational Linguistics (NAACL 2021)에 최종 게재가 승인되었습니다.
이 연구에서는 대규모 데이터로 학습된 자연어 이해 모델을 활용하여 새로운 은유 탐지 모델을 제안합니다. 은유 탐지란 문장에서 특정 단어가 비유적인 의미를 내포하는지를 판단하는 문제로, 인공지능 모델이 인간이 사용하는 자연어를 보다 더 잘 이해하는 데 도움을 줄 수 있습니다. 제안 모델인 MelBERT(metaphor-aware late interaction over BERT)는 학습된 언어 모델을 활용함과 동시에 언어학적 은유 탐지 이론을 활용하여 단어의 의미를 파악합니다. 활용하는 은유탐지 이론은 MIP(metapohor identification procedure)와 SPV(selectional preferecne violence)의 두 가지로, 이를 모델의 구성 요소로 활용하고 있습니다. 논문에서는 여러 데이터셋에서의 실험을 통해 제안 모델이 기존의 은유 탐지 모델 대비 높은 정확도를 보이는 것을 검증하였습니다.
“MelBERT: Metaphor Detection via Contextualized Late Interaction using Metaphorical Identification Theories”, Minjin Choi, Sunkyung Lee, Eunseong Choi, Heesoo Park, Junhyuk Lee, Dongwon Lee, Jongwuk Lee. 2021 Annual Conference of the North American Chapter of the Association for Computational Linguistics (NAACL 2021)
Automated metaphor detection is a challenging task to identify metaphorical expressions of words in a sentence. To tackle this problem, we adopt pretrained contextualized models, e.g., BERT and RoBERTa. To this end, we propose a novel metaphor detection model, namely metaphor-aware late interaction over BERT (MelBERT). Our model not only leverages contextualized word representation but also benefits from linguistic metaphor identification theories to distinguish between the contextual and literal meaning of words. Our empirical results demonstrate that MelBERT outperforms several strong baselines on four benchmark datasets, i.e., VUA-18, VUA-20, MOH-X, and TroFi.