Melhorar as respostas do modelo com o raciocínio de modelo - Amazon Bedrock

Melhorar as respostas do modelo com o raciocínio de modelo

Alguns modelos de base conseguem aplicar o raciocínio de modelo, caso em que são capazes de assumir uma tarefa maior e complexa e dividi-la em etapas menores e mais simples. Esse processo é frequentemente chamado de raciocínio em cadeia de pensamento (CoT). O raciocínio em cadeia de pensamento pode melhorar a precisão do modelo dando a ele a chance de pensar antes de responder. O raciocínio do modelo é mais útil para tarefas como análise em várias etapas, problemas matemáticos e tarefas de raciocínio complexo.

Por exemplo, ao lidar com um problema matemático em forma de texto, o modelo pode primeiro identificar as variáveis relevantes, depois construir equações com base nas informações fornecidas e, finalmente, resolver essas equações para chegar à solução. Essa estratégia não apenas minimiza os erros, mas também torna o processo de raciocínio mais transparente e fácil de seguir, melhorando assim a qualidade da saída do modelo de base.

O raciocínio de modelo não é necessário para todas as tarefas e envolve despesas indiretas, bem como maior latência e mais tokens de saída. Tarefas simples que não precisam de explicações adicionais não são boas candidatas ao raciocínio em CoT.

Observe que nem todos os modelos permitem que você configure o número de tokens de saída que são alocados ao raciocínio de modelo.

O raciocínio de modelo está disponível para os modelos a seguir.

Modelo de base ID do modelo Número de tokens Configuração de raciocínio
Anthropic Claude Opus 4 anthropic.claude-opus-4-20250514-v1:0 Esse modelo terá 32.768 tokens, que incluem tokens de saída e de raciocínio. O raciocínio pode ser habilitado ou desabilitado para esse modelo usando um orçamento de token configurável. Por padrão, o raciocínio está desabilitado.
Anthropic Claude Sonnet 4 anthropic.claude-sonnet-4-20250514-v1:0 Esse modelo terá 65.536 tokens, que incluem tokens de saída e de raciocínio. O raciocínio pode ser habilitado ou desabilitado para esse modelo usando um orçamento de token configurável. Por padrão, o raciocínio está desabilitado.
Anthropic Claude 3.7 Sonnet anthropic.claude-3-7-sonnet-20250219-v1:0 Esse modelo terá 65.536 tokens, que incluem tokens de saída e de raciocínio. O raciocínio pode ser habilitado ou desabilitado para esse modelo usando um orçamento de token configurável. Por padrão, o raciocínio está desabilitado.
DeepSeek-R1 da DeepSeek deepseek.r1-v1:0 Esse modelo terá 8.192 tokens, que incluem tokens de saída e de raciocínio. O número de tokens de raciocínio não pode ser configurado e o número máximo de tokens de saída não deve ser maior que 8.192. O raciocínio está sempre habilitado para esse modelo. O modelo não permite ativar e desativar o recurso de raciocínio.