

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Prompts do avaliador usados em um trabalho de avaliação de RAG
<a name="kb-eval-prompt"></a>

Os mesmos prompts são usados para trabalhos de avaliação *somente de recuperação* e de *recuperação e geração*. Todos os prompts contêm um componente `chat_history` opcional. Se `conversationTurns` for especificado, `chat_history` será incluído no prompt.

Chaves duplas `{{}}` são usadas para indicar onde os dados do conjunto de dados de prompts são inseridos.
+ `{{chat_history}}`: representa o histórico de conversas indicado em `conversationTurns`. Para cada turno, o prompt seguinte é alterado para `chat_history`.
+ `{{prompt}}`: o prompt do conjunto de dados de prompts.
+ `{{ground_truth}}`: a verdade de referência do conjunto de dados de prompts.
+ `{{prediction}}`: a saída final do LLM no sistema de RAG.

**Topics**
+ [Amazon Nova Pro](model-evaluation-type-kb-prompt-kb-nova.md)
+ [Anthropic Claude 3.5 Sonnet](model-evaluation-type-kb-prompt-kb-sonnet-35.md)
+ [Claude 3.5 Sonnet v2 da Anthropic](model-evaluation-type-kb-prompt-kb-sonnet-35v2.md)
+ [Anthropic Claude 3.7 Sonnet](model-evaluation-type-kb-prompt-kb-sonnet-37.md)
+ [Anthropic Claude 3 Haiku](model-evaluation-type-kb-haiku.md)
+ [Anthropic Claude 3.5 Haiku](model-evaluation-type-kb-haiku35.md)
+ [Meta Llama 3.1 70B Instruct](model-evaluation-type-kb-llama.md)
+ [Mistral Large 1 (24.02)](model-evaluation-type-kb-prompt-kb-mistral.md)