[프라임경제] 챗(Chat)GPT와 같은 거대언어모델(LLM)이 기업 내부 지식을 활용해 답변을 생성하는 데 있어 그 신뢰도를 획기적으로 높일 수 있는 기술이 국내 연구진에 의해 개발됐다.
서울대 컴퓨터공학부 지능형데이터시스템 연구팀(지도교수 이상구)은 오는 12일 미국 플로리다에서 개최되는 이 분야 최고 권위 국제학술대회인 EMNLP 2024에 관련 논문 2편을 발표할 예정이라고 11일 밝혔다.
일반적으로 챗GPT 등 LLM은 뛰어난 언어 이해력을 바탕으로 문서 요약, 보고서 작성, 대화형 정보 제공 등으로 많은 기대를 모았으나 엉뚱한 사실을 그럴듯하게 주장하는 환각증세(hallucination)로 인해 여전히 기업용 서비스에 적용하는 데 어려움을 겪고 있다.
최근 이를 해결하는 방법으로 검색증강생성(RAG) 기술이 주목받고 있다. RAG는 사용자의 질문에 관련된 회사 내 주요 정보를 검색한 후 LLM에 입력해 질문의 답을 생성하는 기술이다.
RAG는 환각증세를 완화해주는 동시에 최신 정보나 기업의 고유정보를 기반으로 AI 서비스를 가능하도록 한 것이 특징이다. 특히 RAG 솔루션의 신뢰성은 검색된 지식 정보들을 얼마나 적절히 활용할 수 있는지에 따라 결정된다.
연구팀이 이번에 발표한 논문은 이러한 상황 판단을 정교하게 할 수 있는 방안을 제시한 것이다. LLM이 답변을 생성하는 과정에서 제공된 지식을 사용할지 혹은 무시하고 LLM에 사전에 학습된 정보로 답을 할지 등을 LLM 내부의 엔트로피를 측정해 향상시킬 수 있도록 했다.
연구팀은 이번 성과가 기존 방법론 대비 상황에 따른 대처 능력을 10~30%까지 향상시킬 수 있을 것으로 내다봤다. 이를 통해 고객 체감 신뢰도는 더욱 큰 폭으로 개선될 것으로 예상된다고 밝혔다.
연구를 주도한 서울대 지능형데이터시스템연구실 김연아 연구원과 김형준 연구원은 "LLM과 같이 커다란 딥러닝 모델의 행동 패턴을 심층적으로 이해하는 것은 매우 힘든 일인데, 그 한 단면을 파악해 실질적인 효과를 가져올 수 있는 연구결과를 만들게 되어 매우 기쁘다"고 밝혔다.
이상구 서울대 컴퓨터공학부 교수(인텔리시스 CTO)는 "LLM의 잠재적인 능력을 안전하게 잘 활용할 수 있는 제어 기술은 LLM의 상용화를 위한 핵심 기술이 될 것"이라고 말했다.