

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Peticiones del evaluador utilizadas en un trabajo de evaluación de RAG
<a name="kb-eval-prompt"></a>

Se utilizan las mismas peticiones para los trabajos de evaluación de *solo recuperación* y de *recuperación y generación*. Todas las peticiones contienen un componente `chat_history` opcional. Si se especifica `conversationTurns`, `chat_history` se incluye en la petición.

Se utilizan corchetes dobles `{{}}` para indicar dónde se insertan los datos del conjunto de datos de peticiones.
+ `{{chat_history}}`: representa el historial de la conversación indicada en `conversationTurns`. Para cada turno, la siguiente petición se añade al `chat_history`.
+ `{{prompt}}`: la petición del conjunto de datos de peticiones
+ `{{ground_truth}}`: los datos de referencia del conjunto de datos de peticiones
+ `{{prediction}}`: la salida final del LLM en su sistema RAG

**Topics**
+ [Amazon Nova Pro](model-evaluation-type-kb-prompt-kb-nova.md)
+ [Anthropic Claude 3.5 Sonnet](model-evaluation-type-kb-prompt-kb-sonnet-35.md)
+ [Anthropic Claude 3.5 Sonnet v2](model-evaluation-type-kb-prompt-kb-sonnet-35v2.md)
+ [Anthropic Claude 3.7 Sonnet](model-evaluation-type-kb-prompt-kb-sonnet-37.md)
+ [Anthropic Claude 3 Haiku](model-evaluation-type-kb-haiku.md)
+ [Anthropic Claude 3.5 Haiku](model-evaluation-type-kb-haiku35.md)
+ [Meta Llama 3.1 70B Instruct](model-evaluation-type-kb-llama.md)
+ [Mistral Large 1 (24.02)](model-evaluation-type-kb-prompt-kb-mistral.md)