

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# geração aumentada via recuperação
<a name="jumpstart-foundation-models-customize-rag"></a>

Os modelos de base geralmente são treinados offline, tornando o modelo independente de quaisquer dados criados após o treinamento do modelo. Além disso, os modelos de base são treinados em corpora de domínio muito gerais, tornando-os menos eficazes para tarefas específicas do domínio. Você pode usar a geração aumentada via recuperação (RAG) para recuperar dados de fora de um modelo de base e aumentar seus prompts adicionando os dados recuperados relevantes no contexto. Para obter mais informações sobre as arquiteturas do modelo RAG, consulte [Geração aumentada via recuperação para tarefas de PNL com uso intensivo de conhecimento](https://arxiv.org/abs/2005.11401).

Com o RAG, os dados externos usados para aumentar suas solicitações podem vir de várias fontes de dados, como repositórios de documentos, bancos de dados ou. APIs A primeira etapa é converter seus documentos e quaisquer consultas do usuário em um formato compatível para realizar a pesquisa de relevância. Para tornar os formatos compatíveis, uma coleção de documentos ou biblioteca de conhecimento e consultas enviadas pelo usuário são convertidas em representações numéricas usando modelos de linguagem de incorporação. A *incorporação* é o processo pelo qual o texto recebe representação numérica em um espaço vetorial. As arquiteturas do modelo RAG comparam as incorporações das consultas do usuário no vetor da biblioteca de conhecimento. O prompt original do usuário é então anexado com o contexto relevante de documentos semelhantes na biblioteca de conhecimento. Esse prompt aumentada é então enviada para o modelo de base. Você pode atualizar as bibliotecas de conhecimento e suas incorporações relevantes de forma assíncrona.

 ![\[A model architecture diagram of Retrieval Augmented Generation (RAG).\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/jumpstart/jumpstart-fm-rag.jpg) 

Para ajudar a aumentar o prompt, o documento recuperado deve ser grande o suficiente para conter um contexto útil, e pequeno o suficiente para caber no tamanho máximo da sequência do prompt. Você pode usar JumpStart modelos específicos de tarefas, como o modelo General Text Embeddings (GTE) daHugging Face, para fornecer as incorporações para seus prompts e documentos da biblioteca de conhecimento. Depois de comparar o prompt e as incorporações dos documentos para encontrar aqueles mais relevantes, crie um novo prompt com o contexto adicional. Em seguida, passe o prompt aumentado para um modelo de geração de texto de sua escolha. 

## Cadernos de exemplo
<a name="jumpstart-foundation-models-customize-rag-examples"></a>

Para obter mais informações sobre as soluções de modelos de base da RAG, consulte os seguintes cadernos de exemplos: 
+ [Geração aumentada de recuperação: resposta a perguntas usando modelos de geração LangChain e incorporação da Cohere a partir de SageMaker JumpStart](https://sagemaker-examples.readthedocs.io/en/latest/introduction_to_amazon_algorithms/jumpstart-foundation-models/question_answering_retrieval_augmented_generation/question_answering_Cohere+langchain_jumpstart.html)
+ [Geração aumentada de recuperação: resposta a perguntas usando LLama -2, Pinecone e conjunto de dados personalizado](https://sagemaker-examples.readthedocs.io/en/latest/introduction_to_amazon_algorithms/jumpstart-foundation-models/question_answering_retrieval_augmented_generation/question_answering_pinecone_llama-2_jumpstart.html)
+ [Geração aumentada de recuperação: resposta a perguntas com base em conjunto de dados personalizado com biblioteca de código aberto LangChain ](https://sagemaker-examples.readthedocs.io/en/latest/introduction_to_amazon_algorithms/jumpstart-foundation-models/question_answering_retrieval_augmented_generation/question_answering_langchain_jumpstart.html)
+ [Geração aumentada via recuperação: resposta a perguntas com base em um conjunto de dados](https://sagemaker-examples.readthedocs.io/en/latest/introduction_to_amazon_algorithms/jumpstart-foundation-models/question_answering_retrieval_augmented_generation/question_answering_jumpstart_knn.html)
+ [Geração aumentada via recuperação: resposta a perguntas usando o Llama-2 e modelos de incorporação de texto](https://sagemaker-examples.readthedocs.io/en/latest/introduction_to_amazon_algorithms/jumpstart-foundation-models/question_answering_retrieval_augmented_generation/question_answering_text_embedding_llama-2_jumpstart.html)
+ [Amazon SageMaker JumpStart - Incorporação de texto e semelhança de frases](https://sagemaker-examples.readthedocs.io/en/latest/introduction_to_amazon_algorithms/jumpstart-foundation-models/question_answering_retrieval_augmented_generation/text-embedding-sentence-similarity.html)

Você pode clonar o [repositório de exemplos de SageMaker IA da Amazon](https://github.com/aws/amazon-sagemaker-examples/tree/main/introduction_to_amazon_algorithms/jumpstart-foundation-models) para executar os exemplos de modelos JumpStart básicos disponíveis no ambiente Jupyter de sua escolha no Studio. Para obter mais informações sobre aplicativos que você pode usar para criar e acessar o Jupyter na SageMaker IA, consulte. [Aplicativos compatíveis com o Amazon SageMaker Studio](studio-updated-apps.md)