

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Peticiones del evaluador de métricas integradas para trabajos de evaluación de modelo como juez
<a name="model-evaluation-type-judge-prompt"></a>

Cuando se ejecuta un trabajo de evaluación del modelo basado en un juez, el *modelo evaluador* puntúa las respuestas del *modelo generador* de acuerdo con un conjunto de métricas que usted defina. Amazon Bedrock ofrece una serie de métricas integradas o puede definir sus propias [métricas personalizadas](model-evaluation-custom-metrics-prompt-formats.md).

Consulte las siguientes secciones para ver las peticiones que utilizan los modelos evaluadores disponibles para las métricas integradas de Amazon Bedrock.

**Topics**
+ [Amazon Nova Pro](model-evaluation-type-judge-prompt-nova.md)
+ [Anthropic Claude 3.5 Sonnet](model-evaluation-type-judge-prompt-claude-sonnet.md)
+ [Anthropic Claude 3.5 Sonnet v2](model-evaluation-type-judge-prompt-claude-sonnet35v2.md)
+ [Anthropic Claude 3.7 Sonnet](model-evaluation-type-judge-prompt-claude-sonnet37.md)
+ [Anthropic Claude 3 Haiku](model-evaluation-type-judge-prompt-haiku.md)
+ [Anthropic Claude 3.5 Haiku](model-evaluation-type-judge-prompt-haiku35.md)
+ [Meta Llama 3.1 70B Instruct](model-evaluation-type-judge-prompt-llama.md)
+ [Mistral Large](model-evaluation-type-judge-prompt-mistral.md)