[RAG] AWS코리아 3인의 아키텍트가 전하는 생성형 AI 시대에 대응하는 RAG 전략

[테크수다 기자 도안구 eyeball@techsuda.com] RAG(Retrieval-Augmented Generation, 검색 증강 생성). 생성형 AI 시대 기업 내부에서 서비스를 만들거나 이용할 때 환각(Hallucination) 이슈를 피하기 위해 주목받고 있는 키워드다. AWS 사이트에서 설명을 들을 수 있다.

RAG란? - 검색 증강 생성 설명 - AWS (amazon.com)

RAG(Retrieval-Augmented Generation)는 대규모 언어 모델의 출력을 최적화해 응답을 생성하기 전에 학습 데이터 소스 외부의 신뢰할 수 있는 지식 베이스를 참조하도록 하는 프로세스입니다. 대규모 언어 모델(LLM)은 방대한 양의 데이터를 기반으로 학습되며 수십억 개의 매개 변수를 사용 질문에 대한 답변, 언어 번역, 문장 완성과 같은 작업에 대한 독창적인 결과를 생성합니다. RAG는 이미 강력한 LLM의 기능을 특정 도메인이나 조직의 내부 지식 기반으로 확장하므로 모델을 다시 교육할 필요가 없습니다. 이는 LLM 결과를 개선해 다양한 상황에서 관련성, 정확성 및 유용성을 유지하기 위한 비용 효율적인 접근 방식입니다.

지난해부터 올해까지 가장 중요하게 다뤄지는 키워드라서 관련 분야 전문가들을 찾아 묻고 있다. 이번 글에서는 AWS코리아 전문가들에게 질의서를 보냈고 받았다.

질문에 답해준 이들은 김기영 AWS코리아 애널리틱스 전문 솔루션즈 아키텍트, 최영준 AWS코리아 인공지능 및 머신러닝 전문 솔루션즈 아키텍트, 신은수 AWS코리아 보안 전문 수석 솔루션즈 아키텍트이다. 인터뷰를 요청할 때는 AWS가 40억 달러를 투자한 앤쓰로픽(Anthropic)의 클로드(Claude) 3 모델 3종이 있었다. 하지만 최근 앤쓰로픽은 클로드 3.5 소넷(Sonnet)을 선보였다. 속도와 비용을을 빠르게 하고 대폭 낮췄다. 무료로 푸는 영역도 있다. 이 부분은 반영되지 않았다. 이 내용을 감안하고 읽어주길.

AWS 현재 RAG 기술을 어떤 서비스에 적용하고 있나요?

아마존 베드록(Amazon Bedrock)은 고성능의 파운데이션 모델(foundation model)들을 활용해 기업 고객이 보안, 개인정보 보호, 책임 있는 AI 원칙을 바탕으로 생성형 AI 애플리케이션을 구축할 수 있도록 지원합니다. 기업 고객이 RAG를 활용할 경우 기업 내부 데이터 소스의 지식에 대해 파운데이션 모델을 추가 학습시킬 필요 없이 맞춤 설정해 모델의 지식을 확장할 수 있습니다.

예를 들어, 기업의 내부 문서, 데이터베이스 등의 내부 데이터 소스를 활용해 파운데이션 모델의 지식을 보강함으로써 기업 특화된 언어 모델을 구축할 수 있습니다. 이를 위해 아마존 베드록은 내부 데이터 소스를 저장해 RAG에 활용할 수 있는 아마존 오픈서치 서비스(Amazon OpenSearch Service), 아마존 오로라 포스트그레SQL(Amazon Aurora PostgreSQL), 아마존 RDS 포 포스트그레SQL(Amazon RDS for PostgreSQL), 아마존 넵튠 ML(Amazon Neptune ML), 벡터 서치 포 아마존 메모리DB 포 레디스(Vector search for Amazon MemoryDB for Redis), 아마존 도큐먼트DB(Amazon DocumentDB) 등의 벡터 데이터베이스(Vector database)들을 선택할 수 있으며, 고객에 따라 기업용 검색 서비스인 아마존 켄드라(Amazon Kendra)를 사용하는 사례도 많이 있습니다.

RAG 기술이 기존 AI 모델의 한계를 어떻게 극복할 있다고 보시나요?

기업은 RAG 기술을 통해 자사의 특화된 데이터와 파운데이션 모델을 연계해 보안성과 최신성을 확보하고 환상(hallucination) 현상을 최소화하는 고품질의 생성형 AI 서비스를 구축할 수 있습니다. 보안 측면에서 기업 내부 데이터를 직접 모델 학습에 활용하지 않고, 질문에 관련성이 높은 내부 데이터 소스의 지식만을 검색해 입력 문장(prompt)에 추가함으로써 원하는 답변을 얻을 수 있기 때문에 보안 리스크를 줄일 수 있습니다.

환각 현상은 모델이 모르는 부분에 대해 마치 알고 있는 사실처럼 얘기하는 것으로, 내부 데이터를 활용해 정확한 정보에 기반한 답변을 제공하도록 하여 환각 현상 발생을 최소화할 수 있습니다. 마지막으로, 모델은 특정 시점까지만 학습이 되었기 때문에 시간이 갈수록 모델의 학습 시점과 차이가 발생하게 되어 최신 정보에 기반한 답변을 점차 얻기 어려워집니다. RAG 기술을 이용하면 모델 학습 당시의 고정된 시점이 아닌 실시간 최신 정보를 반영해 현재 시점의 정확한 답변을 제공할 수 있습니다.

RAG 기술 개발에 있어 AWS만의 차별화 포인트는 무엇인가요?

AWS는 RAG 기술 개발에 있어 편의성, 다양성, 정확성에 차별화 포인트를 가지고 있습니다. 먼저 편의성 측면에서 살펴보면, 아마존 큐(Amazon Q) 서비스를 통해 40개 이상의 기본 제공 커넥터로 기업 고객의 데이터, 정보, 시스템에 손쉽게 연결함으로써, AWS가 내부적으로 구축한 RAG 기술을 통해 비즈니스 환경에 맞는 생성형 AI 어시스턴트를 제공하는 것이 대표적이겠습니다.

마케터, 프로젝트 및 프로그램 관리자, 영업 담당자와 같은 비즈니스 사용자는 맞춤형 대화를 나누고, 문제를 해결하고, 콘텐츠를 생성하며, 조치를 취하는 등의 다양한 작업을 수행할 수 있습니다. 아마존 큐는 액세스 가능한 시스템을 인지합니다. 따라서 상세하고 미묘한 질문을 하고, 볼 수 있는 권한이 있는 정보만 포함된 맞춤형 결과를 얻을 수 있습니다.

또한, 날리지베이스 포 아마존 베드록 (Knowledge Bases for Amazon Bedrock)은 완전관리형 기능을 제공해 RAG 워크플로우 전체를 구현하는 데 도움이 됩니다. 다양한 데이터 소스로부터 정보를 수집하고 저장소에 통합할 수 있으며, 검색 및 생성 API(RetrieveAndGenerate API)를 이용해 벡터 데이터베이스 등의 지식 베이스를 쿼리하고 검색된 정보를 바탕으로 응답을 생성하도록 RAG 애플리케이션을 쉽게 구성할 수 있습니다.

또한 지식 베이스의 응답에 대해 출처 정보가 포함돼 있어 사용자가 응답의 근거를 확인하고 사실 여부를 검증할 수 있습니다.

다양성 측면에서의 차별점은 아마존 베드록을 통해 고객의 사용 사례, 비용, 응답 속도 등에 맞춰 다양한 모델을 선택해 사용할 수 있다는 점입니다. 예를 들어, 실시간으로 답변 속도가 빠른 챗봇을 구현하고자 할 경우에는 아마존 베드록의 클로드3-하이쿠(Claude3-haiku) 모델을 선택할 수 있으며,  복잡한 질문에 대해 단위 태스크로 일을 나누어 처리하는 방식의 에이전트 기술에 활용할 경우에는 아마존 베드록의 앤스로픽 클로드3-소네트(Anthropic Claude3 – Sonnet), AI21 랩스 쥐라기-2 울트라(AI21 LAbs Jurassic-2 Ultra), 메타 라마 2 70B(Meta Llama 2 70B), 미스트랄 미스트랄 8X7B(Mistral Mixtral 8X7B)와 같은 큰 파운데이션 모델을 선택하여 처리할 수 있습니다.

또한, 언어 모델 외에도 아마존 베드록은 스테이블 디퓨전(Stable Diffusion) 모델과 아마존 타이탄 이미지 제너레이터(Amazon Titan Image Generator) 모델과 같은 이미지 생성 모델도 함께 제공하고 있습니다. 해당 모델에서는 새로운 이미지를 생성하거나 이미지 내 특정 영역을 복원 또는 채워주는 인페인팅(inpainting) 기술, 원본 이미지에 존재하지 않는 배경 부분을 생성하는 아웃페인팅(outpainting) 기술 등을 제공해 다양한 이미지 생성 기법을 적용해 볼 수 있습니다.

벡터 데이터베이스의 경우 아마존 오픈서치 서비스, 아마존 오로라 포스트그레SQL, 아마존 RDS 포 포스트그레SQL, 아마존 넵튠 ML, 벡터 서치 포 아마존 메모리DB 포 레디스, 아마존 도큐먼트DB 등의 다양한 지식 베이스를 활용하여 질문에 필요한 내부 지식 정보를 검색(search and retrieval)할 수 있는 기능을 제공합니다.

[설명] 이미지 내 특정 영역을 복원 또는 채워주는 인페인팅 기술 구현 예시. 아마존 타이탄 이미지 제너레이터 모델을 활용해 좌측 강아지를 고양이로 편집했습니다
[설명] 원본 이미지에 존재하지 않는 배경 부분을 생성하는 아웃페인팅 기술 구현 예시. 아마존 타이탄 이미지 제너레이터 모델을 활용해 도시 배경을 해변 혹은 숲으로 편집했습니다.

정확성 측면에서, 아마존 베드록은 언어 모델에서 가장 높은 성능을 제공하고 있는 앤쓰로픽의 클로드 모델과 이미지 생성 모델 중 가장 인기 있는 스태빌리티AI(Stability.ai)사의 스테이블 디퓨전 모델을 제공하고 있습니다. 클로드 모델은 20만 토큰의 대규모 입출력을 지원해 정확한 응답을 위한 풍부한 지식을 활용할 수 있는 장점과 함께 다양한 벤치마크 테스트에서 높은 성능을 내는 모델을 지속적으로 아마존 베드록을 통해 제공하고 있습니다.

최근 클로드 모델은 이미지를 입력 프롬프트에 넣을 수 있게 되어 문서의 테이블 정보, 그래프, 이미지 내 글자 정보를 함께 인식해 보다 풍부한 응답 결과를 제공하고 있습니다. 벡터 데이터 베이스에서 오픈서치 서비스 등을 활용하면 렉시컬 검색과 시멘틱 검색 등을 함께 사용해 하이브리드 방식의 검색으로 정확도를 더욱 높일 수 있습니다.

이는 렉시컬 검색을 통해 특정 단어가 포함된 답변을 얻을 수 있고, 내부 지식 정보를 잘 표현하는 벡터값들을 이용해 질문에 확률적으로 가장 유사한 내부 지식 정보를 찾는 시맨틱 검색을 이용해 각각의 특징에 맞게 정보를 검색할 수 있다는 장점을 활용할 수 있습니다.

RAG 모델을 학습시키는 활용하는 데이터 소스는 무엇이며, 데이터 품질 관리는 어떻게 하고 있나요?

PDF와 같은 문서부터 API, 데이터베이스, 시스템 로그, 이미지, 영상과 같은 거의 모든 형태의 정형, 비정형 데이터를 RAG에서 활용하고 있습니다. 사용하기를 원하는 원천 데이터를 가져와 사용 사례에 맞게 데이터를 청크(chunk) 단위로 잘라서 저장하고, 질문에 가까운 정보를 청크 단위로 찾게 됩니다.

아마존 오픈서치 서비스를 청크 단위로 저장하면서 메타데이터 내에 가져온 문서의 이름, 작성일, 페이지 번호 등의 메타 정보를 함께 기록할 수 있으며, 문서의 내용이 새롭게 업데이트될 때마다 이 부분을 검색하여 새롭게 업데이트된 내용을 반영할 수 있도록 합니다.

데이터 품질은 모델의 성능과 신뢰성에 심각한 영향을 미칠 수 있기에 중요합니다.

예를 들면 정확성과 신뢰성이 불완전하거나 노이즈가 많은 데이터로 모델을 학습시키면 예측 정확도가 낮아지고 모델의 일반화 성능이 저하되고, 공정하지 않고 편향된 데이터가 포함되어 있다면 모델의 판단에도 그대로 반영됩니다. 그렇기에 높은 품질의 정제된 데이터를 사용해야 신뢰할 수 있는 AI 모델을 만들 수 있습니다.

AWS는 여러 서비스에서 고품질의 데이터를 제공할 수 있는 기능을 제공하는데, AWS 글루 데이터 퀄리티(AWS Glue Data Quality)는 자동으로 통계를 계산하고, 품질 규칙을 추천, 모니터링 하여 문제가 감지되면 사용자에게 알리고, 숨겨져 있거나 찾기 어려운 문제의 경우 머신러닝 알고리즘을 사용합니다.

확장 가능한 서버리스 개방형 솔루션과 함께 규칙 기반 접근 방식과 머신러닝 접근 방식이 결합되어 신뢰할 수 있는 고품질 데이터를 제공합니다. AWS 레이크 포메이션(AWS Lake Formation)은 데이터 품질 검증과 변환을 위한 블루프린트 제공, AWS 데이터 익스채인지(AWS Data Exchange)는 데이터 공급업체가 제공한 메타데이터를 통한 데이터 품질 평가 기능, 아마존 퀵사이트(Amazon QuickSight)는 데이터 준비와 시각화 기능을 통해 데이터 품질 문제 식별 등 다양한 서비스에서 고품질의 데이터 제공을 위한 기능을 제공합니다.

개인정보 보호 보안 문제에 대해 어떻게 대응하고 계신가요?

AWS환경에서 사용되는 고객 데이터에 대한 제어권한은 모두 고객에게 있습니다. RAG를 이용하는 환경에서도 이 원칙은 동일하게 적용됩니다. 고객은 고객이 지정한 모델을 기반으로 RAG 기법을 사용하여 다양한 서비스 및 애플리케이션을 개발하거나 이용할 수 있습니다. AWS 환경에서 RAG기법을 이용하여 생성형 AI 서비스를 개발할 수 있는 방법은 크게 2가지 유형으로 나눌 수 있습니다.

첫 번째는 아마존 베드록 을 이용한 방법이며 두 번째는 아마존 세이지메이커(Amazon SageMaker)를 이용하는 방법입니다.

이 두 가지 방법 모두 RAG기법을 이용하여 생성형 AI 기반 서비스를 개발할 수 있으며 AWS 는 이 두 가지 유형의 RAG기법 이용 환경에서 여러 가지 보안을 적용하고 있습니다. 먼저 데이터 프라이버시에 대해서 말씀드리면, 위에서 언급한 것과 같이 생성형 AI 개발 환경을 포함하여 AWS 상에서 처리되는 모든 고객 데이터의 소유권과 제어 권한은 고객에게 있습니다.

이 원칙은 생성형 AI 서비스에도 마찬가지로 적용됩니다. 따라서, RAG기법에 사용되는 고객 데이터의 소유권 역시 고객에게 있으며 AWS 는 고객의 명시적인 허용 혹은 지시 없이는 고객의 데이터에 임의로 접근하거나 처리하지 않습니다. 다음으로는 모델의 학습에 사용되거나 모델에 의해 생성된 데이터 저장 장소 및 위치입니다. RAG기법에 활용되는 고객 데이터의 저장 위치는 고객이 결정합니다.

AWS는 고객이 지정한 리전(region)에 고객의 데이터를 저장하게 되며 고객의 지시 없이는 해당 데이터를 다른 지역으로 전송하거나 복제하지 않습니다. RAG 기법을 포함한 모델 학습에 활동되는 모든 데이터는 AWS 환경에서 저장 시 해당 데이터를 암호화할 수 있는 옵션을 제공하고 있습니다.

예를 들어, 아마존 S3(Amazon S3)에 저장되는 데이터는 기본적으로 서버 측 암호화가 적용되게 되며 필요에 따라 별도의 KMS 키를 사용하는 옵션을 적용하여 보안을 강화할 수 있습니다. 또한, RAG 기법을 포함하여 모델을 활용하는 과정에서 사용되는 모든 AWS 서비스에 대한 접근은 TLS 기반의 전송 중 암호화를 제공합니다.

또한, 생성형 AI 서비스를 개발하거나 이용하는 과정에서 사용된 모든 사용자 프롬프트는 아마존 내부에서 아마존 자체 모델이나 기타 서비스의 품질 개선을 위해 사용되지 않습니다. 또한, 아마존 베드록과 같은 관리형 서비스를 이용하는 경우에도 아마존 베드록에서 선택한 파운데이션 모델에 입력된 사용자 프롬프트는 해당 모델 제공자가 자체적으로 사용하는 모델의 품질 개선을 위해 활용되지 않습니다.

이외에도 AWS 에서는 아마존 베드록 을 이용하는 경우라면 가드레일 포 아마존 베드록(Guardrails for Amazon Bedrock) 이라는 보안 기능을 제공하고 있습니다. 이 기능은 아마존 베드록 기반 서비스로 유입되는 사용자의 프롬프트와 입력된 프롬프트를 기반으로 파운데이션 모델에서 제공된 출력값을 검사하여 허용되지 않은 주제를 제한하거나 콘텐츠를 필터하는 기능을 제공하고 있습니다. 아마존 베드록을 사용하는 고객은 필요에 따라 가드레일 포 베드록 서비스를 이용할 수 있으며 각 조직의 보안 요구사항에 따라 각 조직에서 빌드한 가드레일을 구성할 수도 있습니다.

향후 RAG 기술이 어떤 분야에서 가장 영향을 미칠 것으로 예상하시나요?

RAG는 고객 서비스와 기술 지원 분야에서 큰 잠재력을 가지고 있다고 생각합니다. 보다 정확하고 최신 정보를 활용하여 고객 문의에 대한 신뢰할 수 있는 답변을 제공할 수 있기 때문입니다. RAG 기반 챗봇은 기업의 정책, 제품 정보, 기술 문서 등의 지식베이스를 활용하여 맞춤형 응답을 생성할 수 있습니다. 이를 통해 고객 만족도를 높이고 비용 효율적인 고객 지원 서비스를 제공할 수 있습니다.

또한 RAG는 기업의 내부 지식 관리 시스템에도 큰 영향을 미칠 것으로 예상됩니다. 조직 내 다양한 데이터 소스로부터 최신 정보를 취합하여 지식베이스를 구축할 수 있습니다. 임직원들은 RAG 기반 시스템을 통해 필요한 지식과 정보에 효율적으로 접근할 수 있게 되어 업무 생산성이 향상될 것입니다. 마지막으로 RAG는 미래의 창의적 작업과 의사결정을 지원할 수 있습니다. 기존 데이터와 새로운 지식을 결합하여 독창적인 아이디어와 통찰력을 생성할 수 있기 때문입니다. 이를 통해 제품 개발, 마케팅, 전략 수립 등 다양한 분야에서 혁신적인 성과를 거둘 수 있을 것입니다.

RAG 기술의 상용화를 위해 어떤 노력을 기울이고 계신가요?

RAG(Retrieval Augmented Generation) 기술을 상용화하기 위해서는 여러 가지 측면에서 노력이 필요합니다. 이를 위해 정확한 정보를 검색(retrieval) 할 수 있도록 다양한 진화된 RAG(Advanced RAG )기법이 공개되고 있으며 이를 아마존 베드록과 Open Search Service에서 활용하고자 합니다.

예를 들어, 여러 지식저장소에서 검색된 관련 문서들을 효과적으로 통합하고 중요도에 따라 순위를 재조정하는 Reranking 기법을 도입할 수 있습니다.

Reranking은 RAG가 생성한 후보 문서들에 대해 질문과의 관련성 및 일관성을 판단하여 문서의 우선순위를 재조정하는 것입니다. 즉, 질문과 관련 있는 문서들을 컨텍스트의 상위에 위치시킴으로써 답변의 정확도를 높이는 방법입니다.  

또다른 기법은 PDR(Parent Document Retriever) 으로, 문서는 먼저 '부모 문서'로 식별하고 레이블이 지정한 다음, 부모 문서를 '자식 문서'로 세분화합니다. 이러한 자식 세그먼트는 부모 문서 내에 존재하는 보다 구체적인 주제나 토픽을 나타내게 되어 정확하고 관련성 높은 검색이 보장됩니다. 이렇게 찾은 자식 문서의 부모 문서를 실제 입력 프롬프트(prompt)에서는 함께 활용하여 보다 광범위하고 상세한 답변을 얻을 수 있게 됩니다.

추가적으로, RAG에 제공되는 정보의 품질을 높이기 위해서는 그래프 RAG(Graph RAG)와 같은 최신 기술의 적용하는 것도 고려해볼 수 있습니다. 그래프 RAG는 핵심 개념들 간의 복잡한 관계를 정의하고 이를 검색에 반영함으로써 보다 정확하고 연관성 높은 정보를 생성형 AI에 제공할 수 있습니다. 벡터 검색과 그래프 순회를 병행하는 그래프 RAG의 접근법은 향후 RAG 성능 향상에 기여할 것으로 예상됩니다.

RAG 기술 개발 과정에서 직면한 가장 기술적 도전 과제는 무엇이었나요?

RAG의 기술 개발 과정에서 가장 큰 기술적 도전 과제는 효율적이고 정확한 정보 검색 방법을 찾는 것이었습니다. RAG는 대규모 텍스트 청크에서 관련 정보를 검색하고 이를 파운데이션 모델에 제공하여 고품질의 답변을 생성하는 것을 목표로 합니다.

이를 위해서는 방대한 양의 데이터에서 적절한 정보를 빠르고 정확하게 찾아내는 것이 필수적입니다. 이런 방법은 위에서 언급한 기술 상용화 노력과 유사한 방식으로 새로운 기법을 적용하여 정확도를 높일 수 있도록 해야 합니다.

또 다른 하나는 파운데이션 모델이 특정 산업에 맞게 개발되지 않았기 때문에, 해당 산업에 맞는 용어와 배경 지식을 이미 학습하지 못한 경우에는 정보 검색을 통해 얻은 질문에 적합한 정보도 제대로 표현하지 못할 수 있다는 점입니다. 이를 위해 기업 고객은 사용 사례에 맞게 산업용 데이터셋을 준비하여 모델에 대한 미세조정(fine-tuning)을 진행할 수 있습니다.

이를테면 의료 분야 기업이라면 의학 용어, 약물 정보 등이 포함된 데이터로 모델을 미세조정하여 정확도를 높일 수 있습니다. 아마존 베드록에서는 미세조정을 통해 레이블이 있는 학습 데이터 세트를 통해 모델 정확도를 높이고 파운데이션 모델을 산업에 더욱 특화할 수 있습니다. 지속적 사전학습(continued pre-training) 기능은 미분류(unlabeled) 데이터로 모델을 학습하여 모델이 원래 학습 이상의 강력한 지식과 적응력을 축적하여 각 산업에 더욱 특화될 수 있도록 합니다.

이러한 지속적 사전학습 기능을 활용하면 비정형 텍스트 데이터를 그대로 모델에 추가 학습시킬 수 있습니다. 예컨대 제조업체의 경우 설계 문서, 기술 매뉴얼 등의 방대한 내부 데이터를 모델에 계속 학습시켜 제품과 공정에 관한 지식을 쌓게 할 수 있습니다. 이렇게 축적된 도메인 지식은 RAG 모델의 정보 검색과 이해 능력을 향상시킵니다.

RAG 활용한 AI 서비스의 성능을 평가하는 기준은 무엇인가요?

기업 고객마다 각자의 기준으로 성능을 평가하고 있습니다. 특히, 기업 고객은 다양한 엣지 케이스를 포함한 그라운드 트루스(Ground Truth, 질문에 대해 인간이 판단한 답변)을 가지고 AI 서비스의 성능을 평가하거나 내부 사용자의 피드백을 통해 입력 프롬프트를 정제하여 AI 서비스의 성능을 개선해 나가고 있습니다. RAG에 대한 일반적인 성능 평가 방식은 검색(retrieval) 영역과 생성(generation) 영역으로 구분하여 평가합니다.

검색 영역은 리콜(recall)과 같이 검색된 정보가 질문의 정답과 얼마나 일치하는지 측정하거나, 질문의 정답과 관련된 정보가 상위 순위에 잘 랭크(rank)되어 있는지를 판단하는 정확성을 바탕으로 측정하게 됩니다. 생성 영역은 생성된 답변이 벡터 데이터베이스에서 검색된 정보와 얼마나 일치하는지를 측정하거나, 주어진 질문과 관련성이 높은지를 판단하여 점수화합니다. AWS는 이미 고객들과 생성형 AI의 성능을 평가하는 방법을 함께 구축해 가고 있으며, 아모레퍼시픽의 경우 리뷰 요약 서비스에서 아마존 베드록을 통해 요약문을 정량적으로 품질 평가하고 그 결과를 자동으로 반영하여 개선된 요약문을 생성하는 과정을 활용하고 있습니다.

*참조: AWS 기술 블로그- Amazon Bedrock 기반 Amorepacific 리뷰 요약 서비스 평가 방법 구현하기

RAG 기술의 발전이 장기적으로 AI 산업에 어떤 변화를 가져올 것으로 전망하시나요?

RAG는 비용 효율적으로 최신 정보를 빠르게 제공하고, 저작권 표시 등을 통한 사용자 신뢰성을 강화하고, 개발자 제어를 강화하여 기업에서 더 광범위한 애플리케이션을 위해 생성형 AI 기술을 보다 자신 있게 구현할 수 있도록 만들 수 있습니다.

아래는 동일 질문을 소네트에게 물어 얻은 답변입니다:

- “RAG 기술은 AI 시스템이 외부 정보를 활용하여 더 나은 결과물을 생성할 수 있게 해주는 매우 중요한 기술입니다. 기존의 AI 시스템은 사전 학습된 데이터에만 의존했지만, RAG 기술을 통해 필요한 정보를 실시간으로 검색하고 활용할 수 있게 되었습니다. 이는 AI 시스템의 지식 범위를 획기적으로 넓힐 수 있게 해주었습니다. 장기적으로 RAG 기술의 발전은 AI 산업에 다음과 같은 변화를 가져올 것으로 예상됩니다. 첫째, AI 시스템의 지능과 능력이 크게 향상될 것입니다. RAG 기술을 통해 AI 시스템이 방대한 외부 지식을 활용할 수 있게 되면서, 더 복잡하고 고차원적인 작업을 수행할 수 있게 될 것입니다. 예를 들어 의료 진단, 법률 자문, 과학 연구 등 전문 분야에서 AI 시스템이 인간 전문가 수준의 성능을 발휘할 수 있게 될 것입니다. 둘째, AI 시스템의 활용 범위가 크게 확장될 것입니다. 기존에는 AI 시스템이 제한된 영역에서만 활용되었지만, RAG 기술을 통해 거의 모든 분야에서 AI 시스템을 활용할 수 있게 될 것입니다. 교육, 금융, 제조업, 엔터테인먼트 등 다양한 산업에서 AI 시스템이 활용되면서 생산성과 효율성이 크게 향상될 것입니다. 셋째, AI 시스템과 인간의 협업이 더욱 활성화될 것입니다. RAG 기술을 통해 AI 시스템이 인간의 지식과 경험을 보완하고, 인간은 AI 시스템의 계산 능력과 정보 처리 능력을 활용할 수 있게 될 것입니다. 이러한 인간-AI 협업은 새로운 가치 창출과 혁신을 이끌어낼 것으로 기대됩니다. 그러나 RAG 기술의 발전과 함께 해결해야 할 과제도 있습니다. 외부 정보의 신뢰성과 적절성을 보장하는 것이 중요합니다. 또한 AI 시스템이 편향된 정보나 잘못된 정보를 학습하지 않도록 하는 것도 중요한 과제입니다. 이를 위해서는 외부 정보의 품질 관리, 알고리즘의 공정성 및 윤리성 확보 등이 필요할 것입니다. 요컨대, RAG 기술의 발전은 AI 시스템의 지능과 능력을 획기적으로 향상시키고, 다양한 분야에서 AI 시스템의 활용을 가능하게 할 것입니다. 이는 AI 산업의 성장과 발전을 이끌어낼 것으로 기대되지만, 동시에 새로운 과제와 도전 과제에 직면하게 될 것입니다. 앞으로 RAG 기술의 지속적인 발전과 함께 관련 이슈들에 대한 심도 있는 논의와 대응이 필요할 것으로 보입니다.”

아래는 하이쿠에 물어 얻은 답변입니다:

- “RAG기술은 AI 산업에 큰 변화를 가져올 것으로 전망됩니다. RAG 기술은 대화형 AI 시스템에서 특히 주목받고 있는데, 이는 기존의 언어 모델이 가진 한계를 극복할 수 있기 때문입니다. 기존의 언어 모델은 방대한 텍스트 데이터를 학습하여 단어와 문장을 생성할 수 있지만, 실제 상황에 맞는 정보를 생성하기 어려웠습니다. 하지만 RAG 기술은 대화 내용과 관련된 정보를 실시간으로 검색하여 활용할 수 있기 때문에, 대화 상황에 더 적합한 응답을 생성할 수 있습니다. 이를 통해 AI 챗봇의 응답 품질이 크게 향상될 것으로 기대됩니다. 사용자의 질문이나 요청에 대해 맥락에 맞는 적절한 답변을 제공할 수 있게 되면서, AI와의 대화 경험이 보다 자연스럽고 유의미해질 것입니다. 이는 AI 서비스에 대한 사용자 만족도 향상으로 이어질 것으로 보입니다. 또한 RAG 기술은 AI 시스템의 지식 기반을 확장하는 데에도 활용될 수 있습니다. 기존에는 언어 모델이 사전에 제공된 데이터셋 내에서만 지식을 활용할 수 있었지만, RAG 기술을 통해 실시간으로 관련 정보를 검색하고 활용할 수 있게 되었습니다. 이를 통해 AI 시스템의 지식 영역이 확장되고, 보다 다양한 상황에 대응할 수 있게 될 것입니다. 장기적으로는 RAG 기술의 발전이 AI 산업 전반에 큰 영향을 미칠 것으로 보입니다. 기존의 언어 모델 기반 AI 시스템의 한계를 극복하고, 사용자 경험을 크게 향상시킬 수 있기 때문입니다. 또한 AI 시스템의 지식 기반을 확장하여 더욱 다양한 분야에 활용할 수 있게 될 것입니다. 이와 함께 RAG 기술의 발전은 AI 윤리 및 안전성 확보에도 중요한 역할을 할 것으로 기대됩니다. 실시간 정보 검색을 통해 지식의 신뢰성과 정확성을 높일 수 있기 때문에, AI 시스템의 편향성이나 오류 가능성을 줄일 수 있습니다. 이를 통해 AI 시스템의 사회적 신뢰도를 높이고, 더욱 안전하고 윤리적인 AI 서비스를 제공할 수 있게 될 것입니다. 종합적으로 볼 때, RAG 기술의 발전은 AI 산업 전반에 걸쳐 매우 큰 변화를 가져올 것으로 기대됩니다. 사용자 경험의 향상, AI 시스템의 지식 기반 확장, 윤리성 및 안전성 강화 등 다양한 측면에서 혁신을 이끌어낼 것으로 전망됩니다. 이를 통해 AI 기술이 우리 사회에 더욱 유의미하고 신뢰할 수 있는 존재로 자리잡을 수 있을 것입니다.”

이처럼 RAG 기술의 발전은 산업 영역은 물론 우리의 일상적인 삶에도 큰 변화를 가져다줄 것으로 예상합니다.

[테크수다 기자 도안구 eyeball@techsuda.com]

Newsletter
디지털 시대, 새로운 정보를 받아보세요!
세미나