Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Création d’une invite à l’aide de la gestion des invites
Lors de la création d’une invite, vous disposez des options suivantes :
-
Rédigez le message d’invite qui sert d’entrée à un modèle FM pour générer une sortie.
-
Utilisez des accolades doubles pour inclure des variables (comme dans {{variable}}) dans le message d’invite qui peut être rempli lorsque vous appelez l’invite.
-
Choisissez un modèle pour invoquer l’invite ou, si vous prévoyez d’utiliser l’invite avec un agent, ne le spécifiez pas. Si vous choisissez un modèle, vous pouvez également modifier les configurations d’inférence à utiliser. Pour afficher les paramètres d’inférence pour différents modèles, consultez Paramètres de demande d’inférence et champs de réponse pour les modèles de fondation.
Toutes les invites prennent en charge les paramètres d’inférence de base suivants :
maxTokens : le nombre maximum de jetons à autoriser dans la réponse générée.
stopSequences : liste de séquences d’arrêt. Une séquence d’arrêt est une séquence de caractères qui empêche le modèle de générer la réponse.
Température : probabilité que le modèle sélectionne des options à probabilité plus élevée tout en générant une réponse.
topP : pourcentage de candidats les plus probables pris en compte par le modèle pour le jeton suivant.
Si un modèle prend en charge des paramètres d’inférence supplémentaires, vous pouvez les spécifier en tant que champs supplémentaires pour votre invite. Vous fournissez les champs supplémentaires dans un objet JSON. L’exemple suivant montre comment définir top_k, qui est disponible dans les modèles Anthropic Claude, mais qui n’est pas un paramètre d’inférence de base.
{
"top_k": 200
}
Pour plus d’informations sur les paramètres d’inférence de modèle, consultez Paramètres de demande d’inférence et champs de réponse pour les modèles de fondation.
La définition d’un paramètre d’inférence de base en tant que champ supplémentaire ne remplace pas la valeur que vous avez définie dans la console.
Si le modèle que vous choisissez pour l’invite prend en charge l’API Converse (pour plus d’informations, consultez Mener une conversation avec les opérations d’API Converse), vous pouvez inclure les éléments suivants lors de la création de l’invite :
-
Invite système pour fournir des instructions ou un contexte au modèle.
-
Invites précédentes (messages utilisateur) et réponses modèles (messages d’assistant) sous forme d’historique des conversations que le modèle doit prendre en compte lors de la génération d’une réponse pour le message utilisateur final.
-
(Si non pris en charge par le modèle) Outils à utiliser par le modèle lors de la génération de la réponse.
-
(Si pris en charge par le modèle) Utilisez la mise en cache des invites pour réduire les coûts en mettant en cache les invites volumineuses ou fréquemment utilisées. Selon le modèle, vous pouvez mettre en cache les instructions, les outils et les messages du système (utilisateur et assistant). La mise en cache des invites crée un point de contrôle du cache pour l’invite si le nombre total de préfixes d’invite correspond au nombre minimum de jetons requis par le modèle. Lorsqu’une variable modifiée est détectée dans une invite, la mise en cache des invites crée un nouveau point de contrôle du cache (si le nombre de jetons d’entrée atteint le minimum requis par le modèle).
Pour savoir comment créer une invite à l’aide de la gestion des invites, choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :
- Console
-
Pour créer une invite
-
Connectez-vous à la AWS Management Console avec une identité IAM autorisée à utiliser la console Amazon Bedrock. Ensuite, ouvrez la console Amazon Bedrock à l’adresse https://console.aws.amazon.com/bedrock.
-
Sélectionnez Gestion des invites dans le volet de navigation de gauche. Choisissez ensuite Créer une invite.
-
Fournissez un nom pour l’invite et une description facultative.
-
Pour chiffrer votre invite avec une clé gérée par le client, sélectionnez Personnaliser les paramètres de chiffrement (avancé) dans la section Sélection de clé KMS. Si vous omettez ce champ, votre Invite sera cryptée à l’aide d’une Clé gérée par AWS. Pour plus d’informations, consultez Clés AWS KMS.
-
Choisissez Créer une invite. Votre invite est créée et vous êtes redirigé vers le créateur d’invites pour l’invite que vous venez de créer, où vous pouvez configurer votre invite.
-
Vous pouvez passer à la procédure suivante pour configurer votre invite ou revenir au créateur d’invites ultérieurement.
Pour configurer votre invite
-
Si vous n’êtes pas encore dans le créateur d’invites, procédez comme suit :
-
Connectez-vous à la AWS Management Console avec une identité IAM autorisée à utiliser la console Amazon Bedrock. Ensuite, ouvrez la console Amazon Bedrock à l’adresse https://console.aws.amazon.com/bedrock.
-
Sélectionnez Gestion des invites dans le volet de navigation de gauche. Choisissez ensuite une invite dans la section Invites.
-
Dans la section Brouillon d’invite, choisissez Modifier dans le créateur d’invites.
-
Utilisez le volet Invite pour construire l’invite. Entrez l’invite dans la dernière boîte de message utilisateur. Si le modèle prend en charge l’API Converse ou l’API AnthropicClaude Messages, vous pouvez également inclure une invite système, ainsi que les messages d’utilisateur et messages d’assistant précédents pour le contexte.
Lorsque vous rédigez une invite, vous pouvez inclure des variables entre accolades (comme dans {{variable}}). Chaque variable que vous incluez apparaît dans la section Variables de test.
-
(Facultatif) Vous pouvez modifier votre invite comme suit :
-
Dans le volet Configurations, procédez comme suit :
-
Choisissez une ressource d’IA générative pour exécuter l’inférence.
-
Dans Paramètres d’inférence, définissez les paramètres d’inférence que vous souhaitez utiliser.
-
Si le modèle prend en charge le raisonnement, activez Raisonnement pour inclure le raisonnement du modèle dans sa réponse. Dans Jetons de raisonnement, vous pouvez configurer le nombre de jetons de raisonnement que le modèle peut utiliser.
-
Dans Champs de demande de modèle supplémentaires, choisissez Configurer pour spécifier des paramètres d’inférence supplémentaires, en plus de ceux des paramètres d’inférence.
-
Si le modèle que vous choisissez prend en charge les outils, choisissez Configurer les outils pour utiliser des outils avec l’invite.
-
Si le modèle que vous choisissez prend en charge la mise en cache des invites, choisissez l’une des options suivantes (la disponibilité varie selon le modèle) :
-
Aucun : aucune mise en cache des invites n’est effectuée.
-
Outils : seuls les outils figurant dans l’invite sont mis en cache.
-
Outils, instructions système : les outils et les instructions système figurant dans l’invite sont mis en cache.
-
Outils, instructions système et messages : les outils, les instructions système et les messages (utilisateur et assistant) contenus dans l’invite sont mis en cache.
-
Pour comparer les différentes variantes de votre invite, choisissez Comparer les variantes. Sur la page de comparaison, vous pouvez effectuer les actions suivantes :
-
Pour ajouter une variante, choisissez le signe plus. Vous pouvez ajouter jusqu’à trois variantes.
-
Après avoir défini les détails d’une variante, vous pouvez spécifier n’importe quelle variable de test et choisir Exécuter pour tester le résultat de la variante.
-
Pour supprimer une variante, choisissez les trois points, puis sélectionnez Supprimer de la comparaison.
-
Pour remplacer le brouillon de travail et quitter le mode de comparaison, choisissez Enregistrer en tant que brouillon. Toutes les autres variantes seront supprimées.
-
Pour quitter le mode de comparaison, choisissez Quitter le mode de comparaison.
-
Lorsque vous avez fini de configurer l’invite, vous disposez des options suivantes :
- API
-
Pour créer une invite, envoyez une demande CreatePrompt avec un point de terminaison de développement des agents Amazon Bedrock.
Les champs suivants sont obligatoires :
| Champ |
Brève description |
| name |
Nom de l’invite. |
| variants |
Liste des différentes configurations pour l’invite (voir ci-dessous). |
| defaultVariant |
Nom de la variante par défaut. |
Chaque variante de la liste variants est un objet PromptVariant dont la structure générale suivante :
{
"name": "string",
# modelId or genAiResource (see below)
"templateType": "TEXT",
"templateConfiguration": # see below,
"inferenceConfiguration": {
"text": {
"maxTokens": int,
"stopSequences": ["string", ...],
"temperature": float,
"topP": float
}
},
"additionalModelRequestFields": {
"key": "value",
...
},
"metadata": [
{
"key": "string",
"value": "string"
},
...
]
}
Remplissez les champs comme suit :
-
name : entrez un nom pour la variante.
-
Incluez l’un de ces champs, en fonction de la ressource d’invocation du modèle à utiliser :
-
modelId : pour spécifier un modèle de fondation ou un profil d’inférence à utiliser avec l’invite, entrez son ARN ou son ID.
-
genAiResource : pour spécifier un agent, entrez son ID ou son ARN. L’entrée de la genAiResource est un objet JSON au format suivant :
{
"genAiResource": {
"agent": {
"agentIdentifier": "string"
}
}
Si vous incluez le champ genAiResource, vous ne pouvez tester l’invite que dans la console. Pour tester une invite avec un agent dans l’API, vous devez entrer le texte de l’invite directement dans le champ inputText de la demande InvokeAgent.
-
templateType : entrez TEXT ou CHAT. CHAT est uniquement compatible avec les modèles prenant en charge l’API Converse. Si vous voulez utiliser la mise en cache des invites, vous devez utiliser le type de modèle CHAT.
-
templateConfiguration : la valeur dépend du type de modèle que vous avez spécifié :
-
inferenceConfiguration : Le champ text est mappé à une configuration PromptModelInferenceConfiguration. Ce champ contient les paramètres d’inférence communs à tous les modèles. Pour plus d’informations sur les paramètres d’inférence, consultez Génération de réponse d’influence à l’aide de paramètres d’inférence.
-
additionalModelRequestFields : utilisez ce champ pour spécifier des paramètres d’inférence spécifiques au modèle avec lequel vous exécutez l’inférence. Pour plus d’informations sur les paramètres d’inférence spécifiques au modèle, consultez Paramètres de demande d’inférence et champs de réponse pour les modèles de fondation.
-
metadata : métadonnées à associer à la variante d’invite. Vous pouvez ajouter des paires clé-valeur au tableau pour étiqueter la variante d’invite avec des métadonnées.
Les champs suivants sont facultatifs :
| Champ |
Cas d’utilisation |
| description |
Pour indiquer une description pour l’invite. |
| clientToken |
Pour garantir que la demande d’API n’est exécutée qu’une seule fois. Pour plus d’informations, consultez Garantie de l’idempotence. |
| balises |
Pour associer des balises au flux. Pour plus d’informations, consultez Balisage des ressources Amazon Bedrock. |
La réponse crée une version DRAFT et renvoie un ID et un ARN que vous pouvez utiliser comme identifiant d’invite pour d’autres demandes d’API liées à une invite.