테크업체의 특명…"AI의 거짓말을 막아라"

입력 2024-04-05 18:09   수정 2024-04-15 19:40

‘그럴싸한 거짓말’을 뱉어내는 ‘환각(할루시네이션) 현상’은 대규모 언어모델(LLM)의 가장 큰 단점으로 손꼽힌다. 기업들이 LLM과 같은 생성형 인공지능(AI)을 업무에 적용하는 과정에서 마주하는 가장 큰 난관이기도 하다. 최근 AI업계에선 ‘검색 증강 생성(Retrieval-Augmented Generation·RAG)’ 기술이 환각 현상의 해결사 역할을 할 것으로 보고 있다.
○생성형 AI의 단점 ‘환각 현상’

5일 정보기술(IT)업계에 따르면 국내외 주요 AI 업체들이 RAG 기술을 자사 기업 간 거래(B2B) 서비스에 도입하고 있다. RAG는 LLM의 한계를 보완하기 위해 고안된 기술이다. 캐나다의 AI 기업 코히어의 패트릭 루이스 박사가 2020년 내놓은 논문에서 RAG라는 용어를 처음 사용했다.

LLM은 방대한 양의 텍스트 데이터를 기반으로 만든 초거대 AI다. 오픈AI의 챗GPT, 구글의 제미나이, 앤스로픽의 클로드, 네이버의 하이퍼클로바X 등이 대표적이다. 언어의 맥락을 이해할 수 있는 트랜스포머 알고리즘이 활용됐다. 이용자가 자연어 형태로 텍스트를 입력하면 학습된 데이터를 활용해 가장 적합한 답변을 제시한다.

문제는 AI가 질문을 제대로 이해하지 못했거나 알맞은 정보가 없을 때다. 이때 LLM은 보유한 데이터 중에서 가장 확률이 높다고 생각하는 정보를 조합해 그럴싸한 답변을 내놓는다. 챗GPT 출시 초기 ‘세종대왕 맥북 던짐 사건’에 대해 설명해달라고 하자 “조선왕조실록에 기록된 일화로 세종대왕이 훈민정음 초고 작성 중 담당자에게 분노해 맥북과 함께 그를 방으로 던진 사건”이라고 답한 것이 대표적인 환각 현상이다. 일반적인 사용자라면 재미로 받아들일 수 있지만 기업 입장에선 심각한 문제일 수 있다. 일부 기업이 생성형 AI 도입을 주저하는 것도 환각 현상의 영향이 크다.
○맞춤 답안지 따로 제공하는 RAG
RAG는 LLM이 학습한 데이터와 별개의 외부 데이터를 활용해 답변의 정확도를 높이는 방식이다. 특정 분야의 질문에 답할 수 있는 답안지를 따로 제공한다고 이해하면 된다. 이용자가 질문을 던지면 LLM이 처리하기에 앞서 외부의 데이터베이스와 매칭하는 작업을 거친다. 질문과 관련 있는 데이터를 찾아 LLM으로 보내면 LLM이 사람이 이해하기 쉬운 문장으로 답변을 정리해서 제시하는 식이다.

환각 현상을 피하기 위해 특정 데이터를 LLM에 직접 학습시키는 파인 튜닝 방식도 쓸 수 있지만 비용이 훨씬 많이 든다. 새로운 데이터를 추가할 때도 RAG 기술이 훨씬 간편하다는 설명이다. 파인 튜닝은 매번 새로운 정보를 LLM에 학습시켜야 하지만 RAG는 데이터베이스만 업데이트하면 되기 때문이다.

RAG가 성공하려면 신뢰도 높은 데이터 세트를 확보해야 한다. 기업 내부의 정보를 질문과 쉽게 대조할 수 있도록 데이터베이스를 제대로 구축했는지 여부에 따라 결과물이 달라질 수 있다는 게 업계의 설명이다. 업계 관계자는 “기업 내부의 데이터를 잘 모아 정제하는 작업이 필수적”이라며 “카카오톡을 통한 업무 지시 문구나 양식이 제각각인 엑셀 파일만으론 RAG 구현이 불가능하다”고 말했다.

이승우 기자 leeswoo@hankyung.com


관련뉴스

    top
    • 마이핀
    • 와우캐시
    • 고객센터
    • 페이스 북
    • 유튜브
    • 카카오페이지

    마이핀

    와우캐시

    와우넷에서 실제 현금과
    동일하게 사용되는 사이버머니
    캐시충전
    서비스 상품
    월정액 서비스
    GOLD 한국경제 TV 실시간 방송
    GOLD PLUS 골드서비스 + VOD 주식강좌
    파트너 방송 파트너방송 + 녹화방송 + 회원전용게시판
    +SMS증권정보 + 골드플러스 서비스

    고객센터

    강연회·행사 더보기

    7일간 등록된 일정이 없습니다.

    이벤트

    7일간 등록된 일정이 없습니다.

    공지사항 더보기

    open
    핀(구독)!