본문 바로가기 대메뉴 바로가기

대형언어모델로 42% 향상된 추천 기술 연구 개발​
조회수 : 2519 등록일 : 2024-07-17 작성자 : 홍보실

(왼쪽부터) 산업및시스템공학과 박찬영 교수, 김세인 박사과정, 전산학부 강홍석 학사과정(졸), 네이버 김동현 박사, 네이버 양민철 박사

< (왼쪽부터) 산업및시스템공학과 박찬영 교수, 김세인 박사과정, 전산학부 강홍석 학사과정(졸), 네이버 김동현 박사, 네이버 양민철 박사 >

최근 소셜 미디어, 전자 상거래 플랫폼 등에서 소비자의 만족도를 높이는 다양한 추천서비스를 제공하고 있다. 그 중에서도 상품의 제목 및 설명과 같은 텍스트를 주입하여 상품 추천을 제공하는 대형언어모델(Large Language Model, LLM) 기반 기술이 각광을 받고 있다. 한국 연구진이 이런 대형언어모델 기반 추천 기술의 기존 한계를 극복하고 빠르고 최상의 추천을 해주는 시스템을 개발하여 화제다. 

우리 대학 산업및시스템공학과 박찬영 교수 연구팀이 네이버와 공동연구를 통해 협업 필터링(Collaborative filtering) 기반 추천 모델이 학습한 사용자의 선호에 대한 정보를 추출하고 이를 상품의 텍스트와 함께 대형언어모델에 주입해 상품 추천의 높은 정확도를 달성할 수 있는 새로운 대형언어모델 기반 추천시스템 기술을 개발했다고 17일 밝혔다. 

이번 연구는 기존 연구에 비해 학습 속도에서 253% 향상, 추론 속도에서 171% 향상, 상품 추천에서 평균 12%의 성능 향상을 이뤄냈다. 특히, 사용자의 소비 이력이 제한된 퓨샷(Few-shot) 상품* 추천에서 평균 20%의 성능 향상, 다중-도메인(Cross-domain) 상품 추천**에서 42%의 성능 향상을 이뤄냈다.

*퓨샷 상품: 사용자의 소비 이력이 풍부하지 않은 상품.

**다중-도메인 상품 추천: 타 도메인에서 학습된 모델을 활용하여 추가학습없이 현재 도메인에서 추천을 수행. 예를 들어, 의류 도메인에 추천 모델을 학습한 뒤, 도서 도메인에서 추천을 수행하는 상황을 일컫는다. 

기존 대형언어모델을 활용한 추천 기술들은 사용자가 소비한 상품 이름들을 단순히 텍스트 형태로 나열해 대형언어모델에 주입하는 방식으로 추천을 진행했다. 예를 들어 사용자가 영화 극한직업, 범죄도시1, 범죄도시2를 보았을 때 다음으로 시청할 영화는 무엇인가?’라고 대형언어모델에 질문하는 방식이었다.

[그림 1] 협업 필터링은 크게 유사 사용자 기반 추천, 유사 상품 기반 추천으로 이루어진다. 유사 사용자 기반 추천은 목표 사용자와 비슷한 이력을 가지는 사용자가 상호작용한 상품을 추천하는 방법이다. 유사 상품 기반 추천은 목표 사용자가 상호작용한 특정 상품과 유사한 상품을 추천하는 방법이다. 최신 협업 필터링 기법은 유사 사용자 기반 방법론과 유사 상품 기반 방법론을 동시에 사용한다.

< [그림 1] 협업 필터링은 크게 유사 사용자 기반 추천, 유사 상품 기반 추천으로 이루어진다. 유사 사용자 기반 추천은 목표 사용자와 비슷한 이력을 가지는 사용자가 상호작용한 상품을 추천하는 방법이다. 유사 상품 기반 추천은 목표 사용자가 상호작용한 특정 상품과 유사한 상품을 추천하는 방법이다. 최신 협업 필터링 기법은 유사 사용자 기반 방법론과 유사 상품 기반 방법론을 동시에 사용한다. >

이에 반해, 연구팀이 착안한 점은 상품 제목 및 설명과 같은 텍스트뿐 아니라 협업 필터링 지식, , 사용자와 비슷한 상품을 소비한 다른 사용자들에 대한 정보가 정확한 상품 추천에 중요한 역할을 한다는 점이었다. 하지만, 이러한 정보를 단순히 텍스트화하기에는 한계가 존재한다. 이에 따라, 연구팀은 미리 학습된 협업 필터링 기반 추천 모델로부터 사용자의 선호에 대한 정보를 추출하고 이를 대형언어모델이 이해할 수 있도록 변환하는 경량화된 신경망을 도입했다.

[그림 2] 기존 연구는 대형언어모델에 상품 이름을 나열함과 동시에 상품 추천에 관한 질문을 진행한다. 하지만 대형언어모델은 추천 문제를 위하여 학습되거나 설계되어 있지 않기 때문에 추천 문제에 대하여 저조한 성능을 보인다.

< [그림 2] 기존 연구는 대형언어모델에 상품 이름을 나열함과 동시에 상품 추천에 관한 질문을 진행한다. 하지만 대형언어모델은 추천 문제를 위하여 학습되거나 설계되어 있지 않기 때문에 추천 문제에 대하여 저조한 성능을 보인다. >

연구팀이 개발한 기술의 특징으로는 대형언어모델의 추가적인 학습이 필요하지 않다는 점이다. 기존 연구들은 상품 추천을 목적으로 학습되지 않은 대형언어모델이 상품 추천이 가능하게 하도록 대형언어모델을 파인튜닝(Fine-tuning)* 하는 방법을 사용했다. 하지만, 이는 학습과 추론에 드는 시간을 급격히 증가시키므로 실제 서비스에서 대형언어모델을 추천에 활용하는 것에 큰 걸림돌이 된다. 이에 반해, 연구팀은 대형언어모델의 직접적인 학습 대신 경량화된 신경망의 학습을 통해 대형언어모델이 사용자의 선호를 이해할 수 있도록 했고, 이에 따라 기존 연구보다 빠른 학습 및 추론 속도를 달성했다.

*파인튜닝: 사전 학습된 대규모 언어모델을 특정 작업이나 데이터셋에 맞게 최적화하는 과정.

연구팀을 지도한 박찬영 교수는 제안한 기술은 대형언어모델을 추천 문제에 해결하려는 기존 연구들이 간과한 사용자-상품 상호작용 정보를 전통적인 협업 필터링 모델에서 추출해 대형언어모델에 전달하는 새로운 방법으로 이는 대화형 추천 시스템이나 개인화 상품 정보 생성 등 다양한 고도화된 추천 서비스를 등장시킬 수 있을 것이며, 추천 도메인에 국한되지 않고 이미지, 텍스트, 사용자-상품 상호작용 정보를 모두 사용하는 진정한 멀티모달 추천 방법론으로 나아갈 수 있을 것이라고 말했다.

[그림 3] 박찬영 교수 연구팀에서 개발한 모델의 개요. 협업 필터링 모델에서 생성되는 사용자-상품 상호작용 정보와 상품 텍스트 정보를 결합하여 대형언어모델에 주입하는 방식으로 상품 추천을 진행한다. 이를 통해 기존 연구보다 빠른 학습/추론 속도를 달성하였으며, 상품 추천의 정확도를 향상시켰다.

< [그림 3] 박찬영 교수 연구팀에서 개발한 모델의 개요. 협업 필터링 모델에서 생성되는 사용자-상품 상호작용 정보와 상품 텍스트 정보를 결합하여 대형언어모델에 주입하는 방식으로 상품 추천을 진행한다. 이를 통해 기존 연구보다 빠른 학습/추론 속도를 달성하였으며, 상품 추천의 정확도를 향상시켰다. >

우리 대학 산업및시스템공학과 김세인 박사과정 학생과 전산학부 강홍석 학사과정() 학생이 공동 제1 저자, 네이버의 김동현 박사, 양민철 박사가 공동 저자, KAIST 산업및시스템공학과의 박찬영 교수가 교신저자로 참여한 이번 연구는 데이터마이닝 최고권위 국제학술대회인 국제 데이터 마이닝 학회 ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD 2024)’에서 올 8월 발표할 예정이다. (논문명: Large Language Models meet Collaborative Filtering: An Efficient All-round LLM-based Recommender System). 

한편 이번 연구는 네이버 및 정부(과학기술정보통신부)의 재원으로 한국연구재단의 지원을 받아 수행됐다. (NRF-2022M3J6A1063021, RS-2024-00335098)

관련뉴스