Invocation des modèles de compréhension Amazon Nova
Les modèles de compréhension Amazon Nova Multimodal sont disponibles pour l’inférence via l’API Invoke (InvokeModel, InvokeModelWithResponseStream) et l’API Converse (Converse et ConverseStream). Pour créer des applications conversationnelles, consultez Mener une conversation avec les opérations API Converse. Les deux méthodes API (Invoke et Converse) suivent un modèle de demande très similaire, comme détaillé ci-dessous
Les principales différences entre l’API Invoke et l’API Converse sont les suivantes :
-
Les paramètres d’inférence tels que topK ne sont pas pris en charge dans Converse et doivent être transmis dans
additionalModelRequestFields, tandis que dans l’API Invoke, ils peuvent être transmis directement dans les paramètres d’inférence. -
La prise en charge des documents est limitée à l’API Converse et n’est pas prise en charge dans l’API Invoke.
-
Les formats d’analyse des réponses sont différents entre les constructions de l’API Invoke et de l’API Convserse.
-
Le streaming des réponses est différent entre
ConverseStreametInvokeModelWithStreaming.
Afin d’invoquer les modèles Amazon Nova, vous devez faire une demande d’accès à un modèle de fondation Amazon Bedrock dans chaque région où vous avez l’intention d’utiliser les modèles.
Rubriques
Présentation de l’API Messages
Les modèles Amazon Nova Understanding utilisent l’API Messages, qui permet de soumettre des listes structurées de messages d’entrée contenant du texte, des images, des vidéos et des documents. Le modèle génère ensuite le message suivant dans la conversation. L’API Messages prend en charge à la fois les requêtes uniques et les conversations multi-tours sans état, ce qui permet la création de chatbots et d’applications d’assistant virtuel. L’API gère les échanges conversationnels entre un utilisateur et un modèle Amazon Nova (assistant).
Les modèles Amazon Nova sont entraînés pour fonctionner en alternant les tours de conversation entre l’utilisateur et l’assistant. Lorsque vous créez un nouveau message, vous spécifiez les tours de conversation précédents à l’aide du paramètre messages. Le modèle génère ensuite les messages suivants dans la conversation.
Chaque message d’entrée doit être un objet contenant un rôle et un contenu. Les utilisateurs peuvent spécifier un seul message avec le rôle utilisateur ou inclure plusieurs messages avec les rôles utilisateur et assistant. Cependant, le premier message doit toujours utiliser le rôle utilisateur. Si la technique de préremplissage de la réponse d’Amazon Nova est utilisée (en incluant un message final avec le rôle assistant), le modèle poursuivra sa réponse à partir du contenu fourni. Cette approche donnera toujours lieu à une réponse avec le rôle d’assistant.
Voici un exemple de message utilisateur unique :
[{ "role": "user", "content": [{"text":"Hello, Nova"}] }]
Voici un exemple avec plusieurs tours de conversation :
[ {"role": "user", "content": [{"text": "Hello there."}]}, {"role": "assistant", "content": [{"text": "Hi, I'm Chatbot trained to answer your questions. How can I help you?"}]}, {"role": "user", "content": [{"text": "Can you explain LLMs in plain English?"}]} ]
Voici un exemple avec une réponse partiellement préremplie provenant d’Amazon Nova :
[ {"role": "user", "content": [{"text":"Please describe yourself using only JSON"}]}, {"role": "assistant", "content": [{"text":"Here is my JSON description:\n{"}]} ]
Pour plus d’informations sur la création d’invites pour les modèles Amazon Nova, consultez Bonnes pratiques en matière de compréhension de texte.
Utilisation de l’invite système
Vous pouvez inclure une invite système dans la demande. Une invite système vous permet de fournir un contexte et des instructions à Amazon Nova, par exemple en spécifiant un objectif ou un rôle particulier. Spécifiez une invite système dans le champ system, comme indiqué dans l’exemple suivant :
[ {"text": "You are an expert SaS analyst......"} ]
Consultez les sections suivantes pour obtenir des exemples d’inclusion d’une invite système :