Amazon Nova로 RAG 시스템 구축
검색 증강 생성(RAG)은 응답을 생성하기 전에 훈련 데이터 소스 외부의 신뢰할 수 있는 지식 기반을 참조하여 대규모 언어 모델(LLM)의 출력을 최적화합니다. 이 접근 방식은 모델에 최신 정보를 제공하고 이를 도메인별 또는 독점 데이터에 근거하는 데 도움이 됩니다. 또한 액세스 제어를 특정 콘텐츠로 설정하고 응답의 문제를 해결하는 데 사용할 수 있는 제어 가능한 정보 소스를 제공합니다.
RAG는 리트리버를 통해 제너레이터(주로 LLM)를 콘텐츠 데이터베이스(예: 지식 스토어)에 연결하는 방식으로 작동합니다. 리트리버는 관련 정보를 찾는 역할을 합니다. 대부분의 엔터프라이즈 애플리케이션에서 콘텐츠 데이터베이스는 벡터 스토어이고, 리트리버는 임베딩 모델이며, 제너레이터는 LLM입니다. 자세한 내용은 검색 증강 생성
RAG 시스템에는 여러 구성 요소가 있습니다. 이 가이드는 모든 RAG 시스템에서 Amazon Nova를 LLM으로 사용하는 방법을 중점적으로 다룹니다.
Amazon Nova 모델을 텍스트 RAG 시스템 내의 LLM으로 사용할 수 있습니다. Amazon Nova 모델을 사용하면 Amazon Bedrock Knowledge Bases를 사용하여 RAG 시스템을 구축하거나 자체 RAG 시스템을 구축할 수 있는 유연성이 있습니다. 지식 기반을 Amazon Bedrock Agents의 Agent와 연결하여 Agent에 RAG 기능을 추가할 수도 있습니다. 자세한 내용은 대화형 에이전트를 사용하여 애플리케이션의 태스크 자동화를 참조하세요.