Mejora de las respuestas de los modelos con el razonamiento de modelos - Amazon Bedrock

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Mejora de las respuestas de los modelos con el razonamiento de modelos

Algunos modelos fundacionales son capaces de realizar un razonamiento de modelos, mediante el cual pueden tomar una tarea más grande y compleja y dividirla en pasos más pequeños y sencillos. Este proceso a menudo se denomina razonamiento de cadena de pensamiento (CoT). Generalmente, el razonamiento de cadena de pensamiento puede mejorar la precisión del modelo al darle la oportunidad de pensar antes de responder. El razonamiento del modelo es más útil para tareas como el análisis de varios pasos, problemas matemáticos y tareas de razonamiento complejas.

Por ejemplo, al abordar un problema matemático expresado en palabras, el modelo puede identificar primero las variables relevantes, luego construir ecuaciones a partir de la información proporcionada y, finalmente, resolver esas ecuaciones para llegar a la solución. Esta estrategia no solo minimiza los errores, sino que también hace que el proceso de razonamiento sea más transparente y fácil de seguir, lo que mejora la calidad de la salida del modelo fundacional.

El razonamiento del modelo no es necesario para todas las tareas y conlleva una sobrecarga adicional, que incluye un aumento de la latencia y de los tokens de salida. Las tareas sencillas que no necesitan explicaciones adicionales no son buenas candidatas para el razonamiento CoT.

Tenga en cuenta que no todos los modelos permiten configurar el número de tokens de salida que se asignan para el razonamiento del modelo.

El razonamiento del modelo está disponible para los siguientes modelos.

Modelo fundacional ID del modelo Número de tokens Configuración de razonamiento
Anthropic Claude Opus 4 anthropic.claude-opus-4-20250514-v1:0 Este modelo tendrá 32 768 tokens, que incluyen tanto los tokens de salida como los de razonamiento. El razonamiento se puede activar o desactivar en este modelo mediante un presupuesto de tokens configurable. El razonamiento está deshabilitado de forma predeterminada.
Anthropic Claude Sonnet 4 anthropic.claude-sonnet-4-20250514-v1:0 Este modelo tendrá 65 536 tokens, que incluyen tanto los tokens de salida como los de razonamiento. El razonamiento se puede activar o desactivar en este modelo mediante un presupuesto de tokens configurable. El razonamiento está deshabilitado de forma predeterminada.
Anthropic Claude 3.7 Sonnet anthropic.claude-3-7-sonnet-20250219-v1:0 Este modelo tendrá 65 536 tokens, que incluyen tanto los tokens de salida como los de razonamiento. El razonamiento se puede activar o desactivar en este modelo mediante un presupuesto de tokens configurable. El razonamiento está deshabilitado de forma predeterminada.
DeepSeek DeepSeek-R1 deepseek.r1-v1:0 Este modelo tendrá 8192 tokens, que incluyen tanto los tokens de salida como los de razonamiento. La cantidad de tokens de pensamiento no se puede configurar y la cantidad máxima de tokens de salida no debe ser superior a 8192. El razonamiento siempre está habilitado para este modelo. El modelo no admite la activación y desactivación de la capacidad de razonamiento.