Exécution d’exemples de demandes d’API Amazon Bedrock avec l’AWS Command Line Interface
Cette section vous guide à travers quelques opérations courantes dans Amazon Bedrock avec l’AWS Command Line Interface afin de vérifier que vos autorisations et votre authentification sont correctement configurées. Avant d’exécuter les exemples suivants, vous devez vérifier que vous remplissez les conditions préalables suivantes :
Conditions préalables
-
Vous disposez d’un Compte AWS et d’un utilisateur ou d’un rôle avec une authentification configurée et les autorisations nécessaires pour Amazon Bedrock. Sinon, suivez les étapes décrites dans la section Démarrage avec l’API.
-
Vous avez installé et configuré l’authentification pour l’AWS CLI. Pour installer l’AWS CLI en suivant les étapes décrites dans Installation ou mise à jour de la dernière version de l’AWS CLI. Vérifiez que vous avez configuré vos informations d’identification pour utiliser l’interface de ligne de commande (CLI) en suivant les étapes décrites à la section Obtention des informations d’identification pour accorder un accès programmatique.
Vérifiez que vos autorisations sont correctement configurées pour Amazon Bedrock, en utilisant un utilisateur ou un rôle que vous avez configuré avec les autorisations appropriées.
Rubriques
Liste des modèles de fondation proposés par Amazon Bedrock
L’exemple suivant exécute l’opération ListFoundationModels à l’aide de l’AWS CLI. ListFoundationModels répertorie les modèles de fondation (FM) disponibles sur Amazon Bedrock dans votre région. Dans un terminal, exécutez la commande suivante :
aws bedrock list-foundation-models
Si la commande aboutit, la réponse renvoie une liste des modèles de fondation disponibles sur Amazon Bedrock.
Soumission d’une invite de texte à un modèle et génération d’une réponse textuelle avec InvokeModel
L’exemple suivant exécute l’opération InvokeModel à l’aide de l’AWS CLI. InvokeModel vous permet d’envoyer une invite pour générer un modèle de réponse. Dans un terminal, exécutez la commande suivante :
aws bedrock-runtime invoke-model \ --model-id amazon.titan-text-express-v1 \ --body '{"inputText": "Describe the purpose of a \"hello world\" program in one line.", "textGenerationConfig" : {"maxTokenCount": 512, "temperature": 0.5, "topP": 0.9}}' \ --cli-binary-format raw-in-base64-out \ invoke-model-output-text.txt
Si la commande aboutit, la réponse générée par le modèle est écrite dans le fichier invoke-model-output-text.txt. La réponse textuelle est renvoyée dans le champ outputText, accompagnée des informations d’accompagnement.
Soumission d’une invite de texte à un modèle et génération d’une réponse textuelle avec Converse
L’exemple suivant exécute l’opération Converse à l’aide de l’AWS CLI. Converse vous permet d’envoyer une invite pour générer un modèle de réponse. Nous recommandons d’utiliser l’opération Converse plutôt que InvokeModel lorsqu’elle est prise en charge, car elle unifie la demande d’inférence entre les modèles Amazon Bedrock et simplifie la gestion des conversations complexes. Dans un terminal, exécutez la commande suivante :
aws bedrock-runtime converse \ --model-id amazon.titan-text-express-v1 \ --messages '[{"role": "user", "content": [{"text": "Describe the purpose of a \"hello world\" program in one line."}]}]' \ --inference-config '{"maxTokens": 512, "temperature": 0.5, "topP": 0.9}'
Si la commande aboutit, la réponse générée par le modèle est renvoyée dans le champ text, accompagnée des informations d’accompagnement.