

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Flujos de trabajo LLM
<a name="llm-workflows"></a>

En cuanto a los patrones de los agentes, exploramos los patrones más comunes de los agentes de la IA, cada uno creado en torno a un conjunto de capacidades modulares: percepción, acción, aprendizaje y cognición. En el centro del módulo cognitivo de muchos patrones de agentes se encuentra un modelo de lenguaje amplio (LLM) que es capaz de razonar, planificar y tomar decisiones. Sin embargo, invocar un LLM por sí solo no es suficiente para producir un comportamiento inteligente y orientado a objetivos.

Para realizar tareas complejas de forma fiable, los agentes deben integrar el LLM en un flujo de trabajo estructurado, en el que las capacidades del modelo se amplíen con herramientas, memoria, ciclos de planificación y lógica de coordinación. Estos flujos de trabajo de LLM permiten a un agente desglosar los objetivos, enrutar las subtareas, llamar a servicios externos, reflexionar sobre los resultados y coordinarse con otros agentes.

Este capítulo presenta los patrones de diseño básicos para crear módulos cognitivos robustos, ampliables e inteligentes basados en la LLM, organizados en torno a flujos de trabajo reutilizables.

**Topics**
+ [Descripción general de la cognición aumentada con LLM](overview-of-llm-augmented-cognition.md)
+ [Flujo de trabajo para un encadenamiento rápido](workflow-for-prompt-chaining.md)
+ [Flujo de trabajo para enrutamiento](workflow-for-routing.md)
+ [Flujo de trabajo para la paralelización](workflow-for-parallelization.md)
+ [Flujo de trabajo para la orquestación](workflow-for-orchestration.md)
+ [Flujo de trabajo para evaluadores y ciclos de reflexión y refinamiento](workflow-for-evaluators-and-reflect-refine-loops.md)
+ [Conclusión](conclusion-llm-workflows.md)

# Descripción general de la cognición aumentada con LLM
<a name="overview-of-llm-augmented-cognition"></a>

En esencia, el módulo cognitivo de un agente de software puede considerarse un LLM repleto de mejoras. El agente puede utilizar los siguientes componentes básicos para razonar eficazmente en su entorno:
+ **Solicitud: enmarcar** la entrada utilizando el contexto, las instrucciones, los ejemplos y la memoria
+ **Recuperación**: proporcionar up-to-date conocimientos específicos de un dominio a la solicitud LLM mediante la búsqueda vectorial o la memoria semántica, por ejemplo, mediante la generación de recuperación aumentada (RAG)
+ **Uso de herramientas**: permite al LLM invocar o llamar a funciones para recuperar información o actuar en función de ella APIs 
+ **Memoria**: incorporar un estado persistente o basado en una sesión en el ciclo de razonamiento, ya sea mediante bases de datos estructuradas o resúmenes contextuales

Estos aumentos se componen de flujos de trabajo que definen cómo se utiliza el LLM a lo largo del tiempo y en todas las tareas, lo que lo transforma de un motor sin estado en un agente de razonamiento dinámico.

![\[Aumento del LLM.\]](http://docs.aws.amazon.com/es_es/prescriptive-guidance/latest/agentic-ai-patterns/images/llm-augmentation.png)


# Flujo de trabajo para un encadenamiento rápido
<a name="workflow-for-prompt-chaining"></a>

El encadenamiento rápido descompone las tareas complejas en una secuencia de pasos, donde cada paso es una invocación discreta de LLM que procesa o se basa en el resultado del anterior.

![\[Flujo de trabajo para un encadenamiento rápido.\]](http://docs.aws.amazon.com/es_es/prescriptive-guidance/latest/agentic-ai-patterns/images/workflow-for-prompt-chaining.png)


El flujo de trabajo de encadenamiento rápido es adecuado para escenarios en los que las tareas se pueden dividir de forma lógica en pasos de razonamiento secuenciales y en los que los resultados intermedios sirven de base para la siguiente etapa. Destaca en los flujos de trabajo que requieren un pensamiento estructurado, una transformación progresiva o un análisis por capas, como la revisión de documentos, la generación de código, la extracción de conocimientos y el perfeccionamiento del contenido.

## Description (Descripción)
<a name="description-prompt-chaining"></a>
+ La complejidad de la tarea supera la ventana de contexto o la profundidad de razonamiento de una sola llamada de LLM.
+ Los resultados de un paso (por ejemplo, el análisis, el resumen o la planificación) se convierten en insumos para una fase de generación o decisión de seguimiento.
+ Se necesita transparencia y control en todas las etapas del razonamiento (por ejemplo, resultados intermedios auditables).
+ Desea conectar la lógica externa de validación, filtrado o enriquecimiento entre los pasos.
+ Es ideal para los agentes que trabajan en ciclos de razonamiento de tipo continuo, como los agentes de investigación, los asistentes de redacción, los sistemas de planificación y los copilotos de varias etapas.

## Capacidades
<a name="capabilities-prompt-chaining"></a>
+ Cadenas lineales o ramificadas de llamadas LLM
+ Los resultados intermedios se transmiten como datos estructurados o se incluyen en las instrucciones de seguimiento
+ Se puede orquestar con corredores o con AWS Step Functions un AWS Lambda agente específico

## Casos de uso comunes
<a name="common-use-cases-prompt-chaining"></a>
+ Tareas de razonamiento de varios pasos (por ejemplo, «resumir, criticar, reescribir»)
+ Los asistentes de investigación sintetizan resultados estratificados (por ejemplo, «buscar, extraer datos, responder a una pregunta»)
+ Procesos de generación de código («generar un plan, escribir el código, probar el código, explicar el resultado»)

# Flujo de trabajo para enrutamiento
<a name="workflow-for-routing"></a>

En el patrón de enrutamiento, un clasificador o agente de enrutamiento utiliza un LLM para interpretar la intención o la categoría de una consulta y, a continuación, enruta la entrada a un agente o tarea posterior especializado.

![\[Flujo de trabajo para el enrutamiento.\]](http://docs.aws.amazon.com/es_es/prescriptive-guidance/latest/agentic-ai-patterns/images/workflow-for-routing.png)


El flujo de trabajo de enrutamiento se utiliza en situaciones en las que un agente debe clasificar rápidamente la intención de entrada, el tipo de tarea o el dominio y, a continuación, delegar la solicitud a un subagente, herramienta o flujo de trabajo especializados. Resulta especialmente útil en el caso de los agentes de capacidades, como los que actúan como asistentes generales, son los encargados de dar acceso a las funciones empresariales o las interfaces de IA orientadas al usuario que abarcan varios dominios.

El enrutamiento es particularmente efectivo cuando:
+ Clasifica las solicitudes en función de una variedad de tareas (por ejemplo, búsqueda, resumen, reserva o cálculos).
+ Las entradas deben preprocesarse o normalizarse antes de entrar en flujos de trabajo más especializados.
+ Los diferentes tipos de entrada (por ejemplo, imágenes frente a texto, consultas estructuradas frente a consultas no estructuradas) requieren un tratamiento personalizado.
+ Un agente actúa como una centralita conversacional y delega tareas a agentes especializados o microservicios.
+ Este flujo de trabajo es común en los copilotos de dominios específicos, los bots de atención al cliente, los enrutadores de servicios empresariales y los agentes multimodales, donde el despacho inteligente determina tanto la calidad como la eficiencia del comportamiento de los agentes.

## Capacidades
<a name="capabilities-routing"></a>
+ Un LLM de primer paso actúa como despachador
+ Las rutas pueden invocar flujos de trabajo distintos o incluso otros patrones de agentes
+ Soporta la expansión modular de las capacidades

## Casos de uso comunes
<a name="common-use-cases-routing"></a>
+ Asistentes multidominio («¿se trata de una cuestión legal, médica o financiera?»)
+ Árboles de decisión mejorados con el razonamiento LLM
+ Selección dinámica de herramientas (por ejemplo, búsqueda frente a generación de código)

# Flujo de trabajo para la paralelización
<a name="workflow-for-parallelization"></a>

Este flujo de trabajo implica dividir una tarea en subtareas independientes que pueden ser gestionadas simultáneamente por varios agentes o llamadas de LLM. Luego, los resultados se agregan mediante programación y se sintetizan en un resultado.

![\[Flujo de trabajo para la paralelización.\]](http://docs.aws.amazon.com/es_es/prescriptive-guidance/latest/agentic-ai-patterns/images/workflow-patterns-llm-parallelization.png)


El flujo de trabajo de paralelización se utiliza cuando una tarea se puede dividir en subtareas independientes y no secuenciales que se pueden procesar simultáneamente, lo que mejora significativamente la eficiencia, el rendimiento y la escalabilidad. Es especialmente eficaz en espacios problemáticos con muchos datos, orientados a lotes o con múltiples perspectivas, en los que el agente debe analizar o generar contenido a partir de múltiples entradas.

La paralelización es particularmente eficaz cuando:
+ Las subtareas no dependen de los resultados intermedios de las demás, lo que les permite ejecutarse en paralelo sin coordinación.
+ Una tarea implica repetir el mismo proceso de razonamiento en varios elementos (por ejemplo, resumir varios documentos o evaluar una lista de opciones).
+ Se exploran múltiples hipótesis o perspectivas en paralelo para promover la diversidad, la creatividad o la solidez.
+ Debe reducir la latencia de las solicitudes de gran volumen o alta frecuencia mediante la ejecución simultánea de la LLM.
+ Este flujo de trabajo se suele utilizar en agentes de procesamiento de documentos, motores de encuestas o comparación, resumidores de lotes, sesiones de intercambio de ideas con varios agentes y tareas de clasificación o etiquetado escalables, especialmente cuando el razonamiento rápido y paralelo es una ventaja de rendimiento.

## Capacidades
<a name="capabilities-parallelization"></a>
+ Ejecución paralela de tareas de LLM (mediante el uso de AWS Lambda, AWS Fargate o un estado del mapa) AWS Step Functions 
+ Requiere alinear, validar o deduplicar los resultados en la etapa de síntesis
+ Muy adecuado para bucles de agentes sin estado

## Casos de uso comunes
<a name="common-use-cases-parallelization"></a>
+ Analizar varios documentos o perspectivas en paralelo
+ Generar diversos borradores, resúmenes o planes
+ Acelerar el rendimiento en los trabajos por lotes

# Flujo de trabajo para la orquestación
<a name="workflow-for-orchestration"></a>

Un agente orquestador central utiliza un LLM para planificar, descomponer y delegar subtareas en agentes o modelos trabajadores especializados, cada uno con una función específica o experiencia en el campo. Esto refleja las estructuras de los equipos humanos y apoya el comportamiento emergente de varios agentes.

![\[Flujo de trabajo para la orquestación.\]](http://docs.aws.amazon.com/es_es/prescriptive-guidance/latest/agentic-ai-patterns/images/workflow-for-orchestration.png)


El flujo de trabajo de orquestación es ideal para escenarios complejos, jerárquicos o multidisciplinarios que requieren una descomposición estructurada y una ejecución especializada. Es especialmente adecuado para tareas que requieren división del trabajo, en las que es mejor que agentes con distintas capacidades, conocimientos o conjuntos de herramientas se encarguen mejor de los diferentes subcomponentes de una tarea.

Este flujo de trabajo es particularmente eficaz cuando:
+ Las tareas se pueden dividir en subtareas que varían en cuanto a alcance, tipo o razonamiento (por ejemplo, planificar, investigar, implementar y probar).
+ Un LLM o un metaagente debe coordinar a otros agentes, supervisar el progreso y sintetizar los resultados.
+ Desea modular las responsabilidades de los agentes para permitir la escalabilidad, la reutilización y el ajuste especializado.
+ El sistema requiere un comportamiento basado en roles, que imite la forma en que los equipos humanos (por ejemplo, directores de proyectos, desarrolladores y revisores) trabajan en colaboración.

Orchestration es ideal para agentes de planificación con múltiples turnos, copilotos de desarrollo de software, agentes de procesos empresariales y ejecutores de proyectos autónomos. Resulta especialmente útil cuando se implementan sistemas con varios agentes que requieren un desglose centralizado de las tareas pero una lógica de ejecución distribuida, lo que permite una mayor extensibilidad y un comportamiento más explicable en todos los niveles de agentes.

## Capacidades
<a name="capabilities-orchestration"></a>
+ Orchestrator realiza un metarrazonamiento de objetivos
+ Los agentes de trabajo pueden incluir el acceso a las herramientas, la memoria o las solicitudes específicas de un dominio
+ Puede ser jerárquico (es decir, delegación de tareas en varios niveles)

## Casos de uso comunes
<a name="common-use-cases-orchestration"></a>
+ Directores de proyectos, investigadores coordinadores, redactores y agentes de control de calidad
+ Copilotos de codificación que combinan la planificación, la ejecución y las pruebas
+ Agentes que supervisan las cadenas de herramientas o los patrones de acceso a las API

# Flujo de trabajo para evaluadores y ciclos de reflexión y refinamiento
<a name="workflow-for-evaluators-and-reflect-refine-loops"></a>

Este flujo de trabajo proporciona un circuito de retroalimentación en el que un LLM genera un resultado y otro evalúa o critica el resultado. Esto promueve la autorreflexión, la optimización y las mejoras iterativas.

![\[Flujo de trabajo para el evaluador.\]](http://docs.aws.amazon.com/es_es/prescriptive-guidance/latest/agentic-ai-patterns/images/workflow-patterns-evaluator-reflect-refine-feedback-loop.png)


El flujo de trabajo del evaluador es ideal para escenarios en los que la calidad, la precisión y la alineación de los resultados son importantes y en los que la generación de una sola pasada no es fiable o insuficiente. Este flujo de trabajo destaca cuando los agentes deben autocriticarse, repetir y refinar sus resultados, ya sea para cumplir con un estándar más alto de corrección o para explorar alternativas mejoradas en función de los comentarios.

Este flujo de trabajo es particularmente eficaz cuando:
+ El resultado incluye métricas de calidad subjetivas (por ejemplo, estilo, tono y legibilidad) o criterios objetivos (por ejemplo, corrección, seguridad y rendimiento).
+ El agente debe razonar haciendo concesiones, evaluar las limitaciones u optimizar la búsqueda de una meta.
+ Necesita redundancia y garantía de calidad integradas, especialmente en los ámbitos regulados, orientados al cliente o creativos.
+ Human-in-the-loop la revisión es cara o no está disponible, y se desea una validación autónoma.

Este flujo de trabajo se utiliza para la generación de contenido, la síntesis y revisión del código, la aplicación de políticas, la comprobación de la alineación, el ajuste de las instrucciones y el posprocesamiento del RAG. También es útil para los agentes que se mejoran a sí mismos, ya que la retroalimentación continua ayuda a dar forma a mejores respuestas a lo largo del tiempo para crear ciclos de decisión autónomos y confiables.

## Casos de uso comunes
<a name="common-use-cases-evaluators"></a>
+ Los agentes del equipo rojo se comparan con los del equipo azul
+ Agentes que generan, evalúan y revisan códigos o planes
+ Control de calidad, detección de alucinaciones y control del estilo

## Capacidades
<a name="capabilities-evaluators"></a>
+ Soporta la generación y la evaluación disociadas utilizando diferentes modelos (por ejemplo, Claude para la generación y Mistral para la evaluación)
+ La retroalimentación está estructurada y se utiliza para generar resultados revisados
+ Soporta múltiples iteraciones o umbrales de convergencia

# Conclusión
<a name="conclusion-llm-workflows"></a>

LLMs proporcionan el núcleo cognitivo de los agentes de software modernos, pero la invocación de modelos sin procesar no es suficiente para lograr una inteligencia sólida, controlable y útil. Para pasar de la generación de resultados al razonamiento estructurado y a un comportamiento alineado con los objetivos, LLMs debe integrarse en patrones de flujo de trabajo intencionales que definan la forma en que los modelos procesan las entradas, gestionan los contextos y coordinan las acciones.

Los flujos de trabajo de la LLM introducen las bases para construir el módulo cognitivo de un agente:
+ El encadenamiento rápido divide el razonamiento complejo en pasos modulares y auditables.
+ El enrutamiento permite una clasificación inteligente de las tareas y una delegación específica.
+ La paralelización acelera el rendimiento y promueve un razonamiento diverso.
+ La orquestación de agentes estructura la colaboración entre varios agentes mediante la descomposición de tareas y la ejecución basada en roles.
+ El evaluador (bucle reflect-refine) permite la superación personal, el control de calidad y la comprobación de la alineación.

Cada flujo de trabajo representa un patrón componible que se puede adaptar a las necesidades del agente, a la complejidad de la tarea y a las expectativas del usuario. Estos flujos de trabajo no se excluyen mutuamente. Son componentes básicos que a menudo se combinan en arquitecturas híbridas que respaldan el razonamiento dinámico, la coordinación multiagente y la confiabilidad de nivel empresarial.

A medida que pase al siguiente capítulo sobre los patrones de flujo de trabajo de los agentes, estos flujos de trabajo LLM volverán a aparecer como estructuras integradas en sistemas más grandes, lo que favorecerá la delegación de objetivos, la organización de herramientas, los ciclos de decisión y la autonomía del ciclo de vida. Dominar estos flujos de trabajo de LLM es esencial para diseñar agentes de software que no se limiten a predecir el texto, sino que también razonen, se adapten y actúen con determinación.