Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Modèles OpenAI
OpenAI propose les modèles à pondération ouverte suivants :
-
gpt-oss-20b
: modèle plus petit optimisé pour une latence plus faible et des cas d’utilisation locaux ou spécialisés. -
gpt-oss-120b
: modèle plus grand optimisé pour la production et les cas d’utilisation à usage général ou exigeant un raisonnement poussé.
Le tableau suivant résume les informations sur les modèles :
| Informations | gpt-oss-20b | gpt-oss-120b |
|---|---|---|
| Date de publication | 5 août 2025 | 5 août 2025 |
| ID du modèle | openai.gpt-oss-20b-1:0 | openai.gpt-oss-120b-1:0 |
| ID produit | N/A | N/A |
| Modalités d’entrée prises en charge | Texte | Texte |
| Modalités de sortie prises en charge | Texte | Texte |
| Fenêtre contextuelle | 128 000 | 128 000 |
Les modèles OpenAI prennent en charge les fonctionnalités suivantes :
-
Modèle d’invocation avec les opérations suivantes :
-
Application d’une barrière de protection via l’utilisation d’en-têtes dans les opérations d’invocation du modèle.
Rubriques
Corps de la demande OpenAI
Pour plus d’informations sur les paramètres du corps de la demande et leurs descriptions, consultez Create chat completion
Utilisez les champs du corps de a demande de l’une des façons suivantes :
-
Dans une demande InvokeModel ou OpenAI Chat Completions, incluez les champs dans le corps de la demande.
-
Dans une demande Converse, procédez comme suit :
-
Mappez les
messagescomme suit :-
Pour chaque message dont le rôle est
developer, ajoutezcontentà une valeur SystemContentBlock dans le tableausystem. -
Pour chaque message dont le rôle est
userouassistant, ajoutezcontentà une valeur ContentBlock dans le champcontentet spécifiezroledans le champroled’un Message dans le tableaumessages.
-
-
Mappez les valeurs des champs suivants aux champs correspondants de l’objet
inferenceConfig:OpenAI field Champ Converse max_completion_tokens maxTokens stop stopSequences temperature temperature top_p topP -
Incluez tout autre champ dans l’objet
additionalModelRequestFields.
-
Considérations lors de la construction du corps de la demande
-
Les modèles OpenAI ne prennent en charge que l’entrée et la sortie de texte.
-
La valeur du champ
modeldoit correspondre à celle de l’en-tête. Vous pouvez omettre ce champ pour qu’il soit automatiquement rempli avec la même valeur que l’en-tête. -
La valeur du champ
streamdoit correspondre à l’opération d’API que vous utilisez. Vous pouvez omettre ce champ pour qu’il soit automatiquement renseigné avec la valeur correcte.-
Si vous utilisez InvokeModel, la valeur
streamdoit êtrefalse.
-
Corps de la réponse OpenAI
Le corps de réponse pour les modèles OpenAI est conforme à l’objet d’achèvement de discussion renvoyé par OpenAI. Pour plus d’informations sur les champs de réponse, consultez The chat completion object
Note
Si vous utilisez InvokeModel, le raisonnement du modèle, entouré de balises <reasoning>, précède le contenu textuel de la réponse.
Exemple d’utilisation de modèles OpenAI
Cette section fournit quelques exemples sur l’utilisation des modèles OpenAI.
Avant d’essayer ces exemples, vérifiez que vous avez rempli les conditions préalables :
-
Authentification : vous pouvez vous authentifier avec vos informations d’identification AWS ou avec une clé d’API Amazon Bedrock.
Configurez vos informations d’identification AWS ou générez une clé d’API Amazon Bedrock pour authentifier votre demande.
Pour en savoir plus sur la configuration de vos informations d’identification AWS, consultez Accès par programmation avec des informations d’identification de sécurité AWS.
Pour en savoir plus sur les clés d’API Amazon Bedrock et sur la façon de les générer, consultez Génération de clés d’API Amazon Bedrock pour une authentification facile auprès de l’API Amazon Bedrock.
Note
Si vous utilisez l’API OpenAI Chat completions, vous ne pouvez vous authentifier qu’avec une clé d’API Amazon Bedrock.
-
Point de terminaison : recherchez le point de terminaison correspondant à la région AWS à utiliser dans Quotas et points de terminaison d’exécution d’Amazon Bedrock. Si vous utilisez un kit AWS SDK, il se peut que vous deviez uniquement spécifier le code de région et non le point de terminaison complet lors de la configuration du client. Vous devez utiliser un point de terminaison associé à une région prise en charge par le modèle utilisé dans l’exemple.
-
Accès au modèle : demande l’accès à un modèle OpenAI. Pour plus d’informations, consultez Accédez aux modèles de fondations Amazon Bedrock aux États-Unis AWS GovCloud .
-
(Si l’exemple utilise un kit SDK) Installez le kit SDK : Après l’installation, configurez les informations d’identification par défaut et une région AWS par défaut. Si vous ne configurez pas d’informations d’identification par défaut ou de région, vous devrez les spécifier explicitement dans les exemples de code pertinents. Pour plus d’informations sur les fournisseurs d’informations d’identification, consultez Fournisseurs d’informations d’identification normalisés pour les kits SDK et les outils AWS.
Note
Si vous utilisez le kit OpenAI SDK, vous ne pouvez vous authentifier qu’avec une clé d’API Amazon Bedrock et vous devez définir explicitement le point de terminaison Amazon Bedrock.
Développez la section correspondant à l’exemple que vous souhaitez voir :
Pour voir des exemples d’utilisation de l’API OpenAI Create chat completion, choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :
Choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :
Lorsque vous utilisez l’API Converse unifiée, vous devez mapper les champs OpenAI Create chat completion au champ correspondant dans le corps de la demande Converse.
Par exemple, comparez le corps de demande d’achèvement de conversation suivant au corps de demande Converse correspondant :
Choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :
Appliquez une barrière de protection lors de l’exécution de l’invocation du modèle en spécifiant l’ID et la version de la barrière de protection et en indiquant s’il faut activer ou non la trace de la barrière de protection dans l’en-tête d’une demande d’invocation de modèle.
Choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :
Pour voir des exemples d’utilisation de barrière de protection lors de l’achèvement d’une discussion OpenAI, choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :
Inférence par lots vous permet d’exécuter l’inférence de modèle de manière asynchrone à l’aide de plusieurs invites. Pour exécuter l’inférence par lots avec un modèle OpenAI, procédez comme suit :
-
Créez un fichier JSONL et remplissez-le avec au moins le nombre minimum d’objets JSON, séparés chacun par une nouvelle ligne. Chaque objet
modelInputdoit être conforme au format du corps de la demande OpenAI create chat completion. Voici un exemple des deux premières lignes d’un fichier JSONL contenant les corps de requête pour OpenAI. { "recordId": "RECORD1", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "Can you generate a question with a factual answer?" } ], "max_completion_tokens": 1000 } } { "recordId": "RECORD2", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "What is the weather like today?" } ], "max_completion_tokens": 1000 } } ...Note
Le champ
modelest facultatif, car le service d’inférence par lots l’insérera pour vous en fonction de l’en-tête si vous l’omettez.Vérifiez que votre fichier JSONL est conforme aux quotas d’inférence par lots, comme indiqué dans Mise en forme et chargement des données d’inférence par lots.
-
Chargement du fichier image sur un compartiment Amazon S3.
-
Envoyez une demande CreateModelInvocationJob avec un point de terminaison du plan de contrôle Amazon Bedrock avec le compartiment S3 de l’étape précédente spécifiée dans le champ
inputDataConfiget le modèle OpenAI spécifié dans le champmodelId.
Pour un exemple complet, consultez Exemple de code pour l’inférence par lots. Remplacez par des configurations appropriées pour les modèles OpenAI.