Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Creación de una petición con la administración de peticiones
Al crear una petición, dispone de las siguientes opciones:
-
Escriba el mensaje de la petición que sirve de entrada para que un FM genere una salida.
-
Utilice corchetes dobles para incluir las variables (como en {{variable}}) en el mensaje de la petición que se pueden rellenar al llamar a la petición.
-
Elija un modelo con el que invocar la petición o, si piensa utilizar la petición con un agente, déjelo sin especificar. Si elige un modelo, también puede modificar las configuraciones de inferencia que se van a utilizar. Para ver los parámetros de inferencia de los diferentes modelos, consulte Parámetros de solicitud de inferencia y campos de respuesta para los modelos fundacionales.
Todas las peticiones admiten los siguientes parámetros de inferencia básicos:
maxTokens: cantidad máxima de tokens que se permiten en la respuesta generada.
stopSequences: lista de secuencias de detención. Una secuencia de detención es una secuencia de caracteres que hace que el modelo deje de generar la respuesta.
temperature: probabilidad de que el modelo seleccione las opciones más viables al generar una respuesta.
topP: porcentaje de candidatos más probables que el modelo considera para el siguiente token.
Si un modelo admite parámetros de inferencia adicionales, puede especificarlos como campos adicionales para la petición. Los campos adicionales se proporcionan en un objeto JSON. El ejemplo siguiente muestra cómo configurar top_k, que está disponible en los modelos Anthropic Claude, pero no es un parámetro de inferencia básico.
{
"top_k": 200
}
Para obtener información sobre los parámetros de inferencia de modelos, consulte Parámetros de solicitud de inferencia y campos de respuesta para modelos fundacionales.
El establecimiento de un parámetro de inferencia básico como campo adicional no invalida el valor establecido en la consola.
Si el modelo que ha elegido para la petición es compatible con la API Converse (para obtener más información, consulte Cómo mantener una conversación con las operaciones de la API Converse), puede incluir lo siguiente al crear la petición:
-
Una petición del sistema para proporcionar instrucciones o contexto al modelo.
-
Las peticiones anteriores (mensajes de usuario) y las respuestas del modelo (mensajes del asistente) como historial de conversación para que el modelo las tenga en cuenta al generar una respuesta para el mensaje final del usuario.
-
(Si el modelo lo admite) Herramientas para que el modelo las utilice al generar la respuesta.
-
(Si el modelo lo admite) Utilice el almacenamiento en caché de peticiones para reducir los costos mediante el almacenamiento en caché de peticiones grandes o de uso frecuente. Según el modelo, puede almacenar en caché las instrucciones del sistema, las herramientas y los mensajes (del usuario y del asistente). El almacenamiento en caché de peticiones crea un punto de control de caché para la petición si el prefijo total de la petición cumple con el número mínimo de tokens que requiere el modelo. Cuando se encuentra una variable modificada en una petición, el almacenamiento en caché de peticiones crea un nuevo punto de control de caché (si el número de tokens de entrada alcanza el mínimo que requiere el modelo).
Para saber cómo crear una petición con Administración de peticiones, seleccione la pestaña correspondiente al método que prefiera y siga los pasos:
- Console
-
Para crear un aviso
-
Inicie sesión en la Consola de administración de AWS con una identidad de IAM que tenga permisos para usar la consola de Amazon Bedrock. A continuación, abra la consola de Amazon Bedrock en https://console.aws.amazon.com/bedrock/.
-
En el panel de navegación de la izquierda, seleccione Administración de peticiones. A continuación, elija Crear petición.
-
Proporcione un nombre y una descripción opcional para la petición.
-
Para cifrar su petición con una clave administrada por el cliente, seleccione Personalizar configuración de cifrado (avanzada) en la sección Selección de claves de KMS. Si omite este campo, su petición se cifrará con una Clave administrada de AWS. Para obtener más información, consulte Claves de AWS KMS.
-
Elija Crear petición. Se crea la petición y se le redirigirá al generador de peticiones de la petición que se acaba de crear, donde podrá configurarla.
-
Puede continuar con el siguiente procedimiento para configurar la petición o volver al generador de peticiones más adelante.
Configuración de la petición
-
Si aún no se encuentra en el generador de peticiones, haga lo siguiente:
-
Inicie sesión en la Consola de administración de AWS con una identidad de IAM que tenga permisos para usar la consola de Amazon Bedrock. A continuación, abra la consola de Amazon Bedrock en https://console.aws.amazon.com/bedrock/.
-
En el panel de navegación de la izquierda, seleccione Administración de peticiones. A continuación, elija una petición en la sección Peticiones.
-
En la sección Borrador de la petición, seleccione Editar en el generador de peticiones.
-
Utilice el panel Petición para crear la petición. Introduzca la petición en el último cuadro Mensaje del usuario. Si el modelo es compatible con la API Converse o la API Messages de AnthropicClaude, también puede incluir una petición del sistema y mensajes del usuario y mensajes del asistente anteriores como contexto.
Cuando escribe una petición, puede incluir las variables entre corchetes dobles (como en {{variable}}). Cada variable que incluya aparecerá en la sección Variables de prueba.
-
(Opcional) Puede modificar la petición de las siguientes maneras:
-
En la ventana Configuraciones, realice lo siguiente:
-
Elija un recurso de IA generativa para ejecutar la inferencia.
-
En Parámetros de inferencia, defina los parámetros de inferencia que desee utilizar.
-
Si el modelo admite el razonamiento, active Razonamiento para incluir el razonamiento del modelo en su respuesta. En Tokens de razonamiento, puede configurar el número de tokens de razonamiento que puede utilizar el modelo.
-
En Campos de solicitud de modelos adicionales, elija Configurar para especificar parámetros de inferencia adicionales, además de los que se indican en Parámetros de inferencia.
-
Si el modelo que ha elegido admite herramientas, elija Configurar herramientas para utilizar herramientas con la petición.
-
Si el modelo que ha elegido admite el almacenamiento en caché de peticiones, elija una de las siguientes opciones (la disponibilidad varía según el modelo):
-
Ninguno: no se realiza ningún almacenamiento en caché de peticiones.
-
Herramientas: solo se almacenan en caché las herramientas de la petición.
-
Herramientas, instrucciones del sistema: las herramientas e instrucciones del sistema de la petición se almacenan en caché.
-
Herramientas, instrucciones del sistema: las herramientas, las instrucciones del sistema y los mensajes (del usuario y el asistente) de la petición se almacenan en caché.
-
Para comparar diferentes variantes de la petición, elija Comparar variantes. En la página de comparación, puede hacer lo siguiente:
-
Para añadir una variante, seleccione el signo de más. Puede agregar hasta tres variantes.
-
Tras especificar los detalles de una variante, puede especificar cualquier Variable de prueba y elegir Ejecutar para probar el resultado de la variante.
-
Para eliminar una variante, elija los tres puntos y seleccione Eliminar de la comparación.
-
Para reemplazar el borrador de trabajo y salir del modo de comparación, seleccione Guardar como borrador. Se eliminarán todas las demás variantes.
-
Para salir del modo de comparación, seleccione Salir del modo de comparación.
-
Al terminar de configurar la petición, aparecerán las siguientes opciones:
- API
-
Para crear una petición, envíe una solicitud CreatePrompt con un punto de conexión en tiempo de compilación de Agentes para Amazon Bedrock.
Los siguientes campos son obligatorios:
| Campo |
Descripción breve |
| nombre |
Nombre de la petición |
| variants |
Lista de las diferentes configuraciones de la petición (véase más abajo) |
| defaultVariant |
Nombre predeterminado de la variante |
Cada variante de la lista variants es un objeto PromptVariant con la siguiente estructura general:
{
"name": "string",
# modelId or genAiResource (see below)
"templateType": "TEXT",
"templateConfiguration": # see below,
"inferenceConfiguration": {
"text": {
"maxTokens": int,
"stopSequences": ["string", ...],
"temperature": float,
"topP": float
}
},
"additionalModelRequestFields": {
"key": "value",
...
},
"metadata": [
{
"key": "string",
"value": "string"
},
...
]
}
Rellene los campos de la siguiente manera:
-
name: introduzca un nombre para la variante.
-
Incluya uno de estos campos, según el recurso de invocación del modelo que utilice:
-
modelId: para especificar un modelo fundacional o un perfil de inferencia para usarlo con la petición, introduzca su ARN o ID.
-
genAiResource: para especificar un agente, introduzca su ID o ARN. La entrada de genAiResource es un objeto JSON con el siguiente formato:
{
"genAiResource": {
"agent": {
"agentIdentifier": "string"
}
}
Si incluye el campo genAiResource, solo podrá probar la petición en la consola. Para probar una petición con un agente en la API, debe introducir el texto de la petición directamente en el campo inputText de la solicitud InvokeAgent.
-
templateType: introduzca TEXT o CHAT. CHAT solo es compatible con los modelos que admiten la API Converse. Si quiere utilizar el almacenamiento en caché de peticiones, debe utilizar el tipo de plantilla CHAT.
-
templateConfiguration: el valor depende del tipo de plantilla que haya especificado:
-
inferenceConfiguration: el campo text se asigna a una PromptModelInferenceConfiguration Este campo contiene parámetros de inferencia que son comunes a todos los modelos. Para obtener más información sobre los parámetros de inferencia, consulte Influencia sobre la generación de respuestas con parámetros de inferencia.
-
additionalModelRequestFields: se utiliza para especificar los parámetros de inferencia que son específicos del modelo con el que se ejecuta la inferencia. Para obtener más información sobre los parámetros de inferencia específicos de un modelo, consulte Parámetros de solicitud de inferencia y campos de respuesta para los modelos fundacionales.
-
metadata: metadatos que se van a asociar a la variante de la petición. Puede añadir pares clave-valor a la matriz para etiquetar la variante de petición con metadatos.
Los siguientes campos son opcionales:
| Campo |
Caso de uso |
| description |
Para proporcionar una descripción de la petición. |
| clientToken |
Para garantizar que la solicitud de la API se complete solo una vez. Para obtener más información, consulte Ensuring idempotency. |
| etiquetas |
Para asociar etiquetas con el flujo. Para obtener más información, consulte Etiquetado de los recursos de Amazon Bedrock. |
La respuesta crea una versión DRAFT y devuelve un ID y un ARN que puede usar como identificador de la petición para otras solicitudes de la API relacionadas con la petición.