Ejecución de solicitudes de API de Amazon Bedrock de ejemplo con la AWS Command Line Interface
En esta sección se explica cómo probar algunas operaciones habituales en Amazon Bedrock con la AWS Command Line Interface para comprobar que los permisos y la autenticación estén configurados correctamente. Antes de ejecutar los siguientes ejemplos, debe comprobar que cumple los requisitos previos que se indican a continuación:
Requisitos previos
-
Tiene una Cuenta de AWS y un usuario o rol con la autenticación configurada y los permisos necesarios para Amazon Bedrock. De lo contrario, siga estos pasos en Introducción a la API.
-
Ha instalado y configurado la autenticación para la AWS CLI. Para instalar la AWS CLI, siga los pasos que se indican en Install or update to the latest version of the AWS CLI. Compruebe que ha configurado sus credenciales para usar la CLI siguiendo los pasos que se indican en Obtención de credenciales para conceder acceso programático.
Compruebe que sus permisos estén configurados correctamente para Amazon Bedrock con un usuario o rol que haya configurado con los permisos adecuados.
Temas
Enumeración de los modelos fundacionales que ofrece Amazon Bedrock
En el siguiente ejemplo se ejecuta la operación ListFoundationModels con la AWS CLI. ListFoundationModels muestra los modelos fundacionales (FM) que están disponibles en Amazon Bedrock en su región. En un terminal, ejecute el siguiente comando:
aws bedrock list-foundation-models
Si el comando se ejecuta correctamente, la respuesta devuelve una lista de modelos fundacionales que están disponibles en Amazon Bedrock.
Envío de una petición de texto a un modelo y generación de una respuesta de texto con InvokeModel
En el siguiente ejemplo se ejecuta la operación InvokeModel con la AWS CLI. InvokeModel le permite enviar una petición para generar una respuesta del modelo. En un terminal, ejecute el siguiente comando:
aws bedrock-runtime invoke-model \ --model-id amazon.titan-text-express-v1 \ --body '{"inputText": "Describe the purpose of a \"hello world\" program in one line.", "textGenerationConfig" : {"maxTokenCount": 512, "temperature": 0.5, "topP": 0.9}}' \ --cli-binary-format raw-in-base64-out \ invoke-model-output-text.txt
Si el comando se ejecuta correctamente, la respuesta generada por el modelo se escribe en el archivo invoke-model-output-text.txt. La respuesta de texto se devuelve en el campo outputText, junto con la información correspondiente.
Envío de una petición de texto a un modelo y generación de una respuesta de texto con Converse
En el siguiente ejemplo se ejecuta la operación Converse con la AWS CLI. Converse le permite enviar una petición para generar una respuesta del modelo. Recomendamos utilizar la operación Converse en lugar de InvokeModel cuando sea compatible, ya que unifica la solicitud de inferencia en todos los modelos de Amazon Bedrock y simplifica la administración de las conversaciones en varios turnos. En un terminal, ejecute el siguiente comando:
aws bedrock-runtime converse \ --model-id amazon.titan-text-express-v1 \ --messages '[{"role": "user", "content": [{"text": "Describe the purpose of a \"hello world\" program in one line."}]}]' \ --inference-config '{"maxTokens": 512, "temperature": 0.5, "topP": 0.9}'
Si el comando se ejecuta correctamente, la respuesta generada por el modelo se devuelve en el campo text, junto con la información correspondiente.