TOP
class="layout-aside-left paging-number">
본문 바로가기
프로그래밍 및 기타/프로그래밍 용어, 상식 등

[LLM]검색 증강 생성(RAG)이란?

by 기록자_Recordian 2024. 8. 15.
728x90
반응형
AG (Retrieval-Augmented Generation) 소개


최근 인공지능 분야에서 가장 주목받고 있는 기술 중 하나는 RAG, 즉 Retrieval-Augmented Generation이다. 이 기술은 전통적인 생성 모델과 검색 모델의 장점을 결합하여 보다 정확하고 풍부한 응답을 생성한다.

출처: https://blog.togglecampus.com/ko/post/rag/

 

RAG는 인공지능 분야에서 정보 검색과 생성의 융합을 통해 사용자에게 더 나은 경험을 제공하는 혁신적인 기술이다. 정확도와 효율성을 동시에 추구하는 RAG를 통해 다양한 응용 분야에서의 활용이 기대된다.


RAG란?


RAG는 크게 두 부분으로 구성된다:

  • Retrieval(검색): 먼저, 시스템은 주어진 질문이나 요청과 관련된 정보를 데이터베이스나 문서 집합에서 검색한다. 이 단계에서 사용되는 모델은 일반적으로 대규모 텍스트 데이터베이스에서 관련 정보를 빠르게 찾아내는 데 특화되어 있다.
  • Generation(생성): 검색된 정보를 기반으로, 생성 모델은 자연어 응답을 생성한다. 이 단계에서는 검색된 내용의 컨텍스트를 활용하여 더 구체적이고 적절한 응답을 제공한다.

▶ 이러한 구조는 생성 모델이 모든 정보를 기억할 필요 없이, 필요한 정보를 검색하여 사용할 수 있도록 함으로써 모델의 효율성과 정확성을 크게 향상시킨다.


검색-증강 생성이 중요한 이유
출처: AWS


LLM은 지능형 챗봇 및 기타 자연어 처리(NLP) 애플리케이션을 지원하는 핵심 인공 지능(AI) 기술이다. 목표는 신뢰할 수 있는 지식 소스를 상호 참조하여 다양한 상황에서 사용자 질문에 답변할 수 있는 봇을 만드는 것이다. 안타깝게도 LLM 기술의 특성상 LLM 응답에 대한 예측이 불가능하며, LLM 훈련 데이터는 정적이며 보유한 지식에 대한 마감일을 도입한다.


[LLM의 알려진 문제점]

  • 답변이 없을 때 허위 정보를 제공.
  • 사용자가 구체적이고 최신의 응답을 기대할 때 오래되었거나 일반적인 정보를 제공.
  • 신뢰할 수 없는 출처로부터 응답을 생성.
  • 용어 혼동으로 인해 응답이 부정확. 다양한 훈련 소스가 동일한 용어를 사용하여 서로 다른 내용을 설명.

대형 언어 모델은 현재 상황에 대한 최신 정보를 얻기를 거부하지만 항상 절대적인 자신감을 가지고 모든 질문에 답변하는 지나치게 열정적인 신입 사원으로 생각할 수 있다. 안타깝게도 이러한 태도는 사용자 신뢰에 부정적인 영향을 미칠 수 있으며 챗봇이 모방하기를 원하지 않는다.
RAG는 이러한 문제 중 일부를 해결하기 위한 한 가지 접근 방식이다. LLM을 리디렉션하여 신뢰할 수 있는 사전 결정된 지식 출처에서 관련 정보를 검색한다. 조직은 생성된 텍스트 출력을 더 잘 제어할 수 있으며 사용자는 LLM이 응답을 생성하는 방식에 대한 통찰력을 얻을 수 있다.


RAG의 작동 방식


RAG의 작동 방식은 다음과 같은 단계를 거친다:

  • 질문 입력: 사용자가 시스템에 질문을 입력한다.
  • 검색 단계: 입력된 질문을 기반으로, 시스템은 관련 정보가 포함된 문서를 검색한다.
  • 생성 단계: 검색된 정보를 바탕으로, 생성 모델은 질문에 대한 답변을 생성한다.
  • 응답 출력: 최종적으로 생성된 응답이 사용자에게 전달된다.
    이 과정에서 RAG는 주로 자연어 처리(NLP) 모델과 지식 기반(Knowledge Base)을 활용하여 더 정교한 답변을 제공한다.

RAG의 장점
  • 높은 정확도: 필요한 정보를 직접 검색하여 사용하기 때문에, 생성 모델만을 사용하는 것보다 더 정확하고 관련성 높은 응답을 생성할 수 있다.
  • 데이터 효율성: 모든 지식을 모델 내부에 저장할 필요 없이, 외부 데이터베이스나 문서 집합을 활용하여 더 적은 데이터로도 높은 성능을 발휘할 수 있다.
  • 유연성: 다양한 도메인에 쉽게 적용할 수 있으며, 새로운 정보를 추가하거나 업데이트하는 데 용이하다.

 

★ 다음은 AWS에서 말하는 RAG의 이점이다.

 

비용 효율적인 구현
챗봇 개발은 일반적으로 파운데이션 모델을 사용하여 시작된다. 파운데이션 모델(FM)은 광범위한 일반화 데이터와 레이블이 지정되지 않은 데이터에 대해 훈련된 API 액세스 가능 LLM이다. 조직 또는 도메인별 정보를 위해 FM을 재교육하는 데 드는 계산 및 재정적 비용이 많이 든다. RAG는 LLM에 새 데이터를 도입하기 위한 보다 비용 효율적인 접근 방식이며, 이를 통해 생성형 인공 지능(생성형 AI) 기술을 보다 폭넓게 접근하고 사용할 수 있다.

최신 정보
LLM의 원본 훈련 데이터 소스가 요구 사항에 적합하더라도 관련성을 유지하기는 어렵다. 개발자는 RAG를 사용하여 생성 모델에 최신 연구, 통계 또는 뉴스를 제공할 수 있다. RAG를 사용하여 LLM을 라이브 소셜 미디어 피드, 뉴스 사이트 또는 기타 자주 업데이트되는 정보 소스에 직접 연결할 수 있다. 그러면 LLM은 사용자에게 최신 정보를 제공할 수 있다.

사용자 신뢰 강화
RAG은 LLM은 소스의 저작자 표시를 통해 정확한 정보를 제공할 수 있다. 출력에는 소스에 대한 인용 또는 참조가 포함될 수 있다. 사용자는 추가 설명이나 세부 정보가 필요한 경우 소스 문서를 직접 찾아볼 수도 있다. 이를 통해 생성형 AI 솔루션에 대한 신뢰와 확신을 높일 수 있다.

개발자 제어 강화
개발자는 RAG를 사용하여 채팅 애플리케이션을 보다 효율적으로 테스트하고 개선할 수 있다. LLM의 정보 소스를 제어하고 변경하여 변화하는 요구 사항 또는 부서 간 사용에 적응할 수 있다. 또한 개발자는 민감한 정보 검색을 다양한 인증 수준으로 제한하고 LLM이 적절한 응답을 생성하도록 할 수 있다. 또한 LLM이 특정 질문에 대해 잘못된 정보 소스를 참조하는 경우 문제를 해결하고 수정할 수도 있다. 조직은 더 광범위한 애플리케이션을 위해 생성형 AI 기술을 보다 자신 있게 구현할 수 있다.


RAG의 응용 분야
  • 챗봇 및 대화형 AI: 고객 서비스나 기술 지원 분야에서 사용자 질문에 정확하고 유용한 답변을 제공하는 데 사용된다.
  • 정보 검색 시스템: 대량의 문서나 데이터베이스에서 사용자 요청에 대한 적절한 정보를 찾아주는 데 활용된다.
  • 지식 관리: 조직 내부의 지식을 관리하고 필요한 정보를 쉽게 검색하여 사용하는 데 도움이 된다.

[출처: AWS]




728x90
반응형