Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Modèles OpenAI
OpenAI propose les modèles à pondération ouverte suivants :
-
gpt-oss-20b
: modèle plus petit optimisé pour une latence plus faible et des cas d’utilisation locaux ou spécialisés. -
gpt-oss-120b
: modèle plus grand optimisé pour la production et les cas d’utilisation à usage général ou exigeant un raisonnement poussé.
Le tableau suivant résume les informations sur les modèles :
| Informations | gpt-oss-20b | gpt-oss-120b |
|---|---|---|
| Date de publication | 5 août 2025 | 5 août 2025 |
| ID du modèle | openai.gpt-oss-20b-1:0 | openai.gpt-oss-120b-1:0 |
| ID produit | N/A | N/A |
| Modalités d’entrée prises en charge | Texte | Texte |
| Modalités de sortie prises en charge | Texte | Texte |
| Fenêtre contextuelle | 128 000 | 128 000 |
Les modèles OpenAI prennent en charge les fonctionnalités suivantes :
-
Modèle d’invocation avec les opérations suivantes :
-
Application d’une barrière de protection via l’utilisation d’en-têtes dans les opérations d’invocation du modèle.
Rubriques
Corps de la demande OpenAI
Pour plus d’informations sur les paramètres du corps de la demande et leurs descriptions, consultez Create chat completion
Utilisez les champs du corps de a demande de l’une des façons suivantes :
-
Dans une demande InvokeModelou dans OpenAI Chat Completions, incluez les champs dans le corps de la demande.
-
Dans une demande Converse, procédez comme suit :
-
Mappez les
messagescomme suit :-
Pour chaque message dont le rôle est
developer, ajoutez lecontenta SystemContentBlockdans lesystemtableau. -
Pour chaque message dont le rôle est
userouassistant, ajoutez lecontentà a ContentBlockdans lecontentchamp et spécifiez leroledans lerolechamp d'un message dans lemessagestableau.
-
-
Mappez les valeurs des champs suivants aux champs correspondants de l’objet
inferenceConfig:OpenAI field Champ Converse max_completion_tokens maxTokens stop stopSequences temperature temperature top_p topP -
Incluez tout autre champ dans l’objet
additionalModelRequestFields.
-
Considérations lors de la construction du corps de la demande
-
Les modèles OpenAI ne prennent en charge que l’entrée et la sortie de texte.
-
La valeur du champ
modeldoit correspondre à celle de l’en-tête. Vous pouvez omettre ce champ pour qu’il soit automatiquement rempli avec la même valeur que l’en-tête. -
La valeur du champ
streamdoit correspondre à l’opération d’API que vous utilisez. Vous pouvez omettre ce champ pour qu’il soit automatiquement renseigné avec la valeur correcte.-
Si vous utilisez InvokeModel, la
streamvaleur doit êtrefalse.
-
Corps de la réponse OpenAI
Le corps de réponse pour les modèles OpenAI est conforme à l’objet d’achèvement de discussion renvoyé par OpenAI. Pour plus d’informations sur les champs de réponse, consultez The chat completion object
Note
Si vous utilisez InvokeModel, le raisonnement du modèle, entouré de balises <reasoning>, précède le contenu textuel de la réponse.
Exemple d’utilisation de modèles OpenAI
Cette section fournit quelques exemples sur l’utilisation des modèles OpenAI.
Avant d’essayer ces exemples, vérifiez que vous avez rempli les conditions préalables :
-
Authentification — Vous pouvez vous authentifier avec vos AWS informations d'identification ou avec une clé d'API Amazon Bedrock.
Configurez vos AWS informations d'identification ou générez une clé d'API Amazon Bedrock pour authentifier votre demande.
Pour en savoir plus sur la configuration de vos AWS informations d'identification, consultez la section Accès par programmation avec informations d'identification AWS de sécurité.
Pour en savoir plus sur les clés d'API Amazon Bedrock et sur la façon de les générer, consultez la section Clés d'API du chapitre Build.
Note
Si vous utilisez l’API OpenAI Chat completions, vous ne pouvez vous authentifier qu’avec une clé d’API Amazon Bedrock.
-
Point de terminaison : recherchez le point de terminaison correspondant à la AWS région à utiliser dans les points de terminaison et les quotas Amazon Bedrock Runtime. Si vous utilisez un AWS SDK, il se peut que vous deviez uniquement spécifier le code de région et non le point de terminaison complet lors de la configuration du client. Vous devez utiliser un point de terminaison associé à une région prise en charge par le modèle utilisé dans l’exemple.
-
Accès au modèle : demande l’accès à un modèle OpenAI. Pour de plus amples informations, veuillez consulter Gérez l'accès aux modèles à l'aide du SDK et de la CLI.
-
(Si l'exemple utilise un SDK) Installez le SDK : après l'installation, configurez les informations d'identification par défaut et une région par défaut AWS . Si vous ne configurez pas d’informations d’identification par défaut ou de région, vous devrez les spécifier explicitement dans les exemples de code pertinents. Pour plus d'informations sur les fournisseurs d'informations d'identification standardisées, voir AWS SDKs et Outils fournisseurs d'informations d'identification standardisés.
Note
Si vous utilisez le kit OpenAI SDK, vous ne pouvez vous authentifier qu’avec une clé d’API Amazon Bedrock et vous devez définir explicitement le point de terminaison Amazon Bedrock.
Développez la section correspondant à l’exemple que vous souhaitez voir :
Pour voir des exemples d’utilisation de l’API OpenAI Create chat completion, choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :
Choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :
Lorsque vous utilisez l’API Converse unifiée, vous devez mapper les champs OpenAI Create chat completion au champ correspondant dans le corps de la demande Converse.
Par exemple, comparez le corps de demande d’achèvement de conversation suivant au corps de demande Converse correspondant :
Choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :
Appliquez une barrière de protection lors de l’exécution de l’invocation du modèle en spécifiant l’ID et la version de la barrière de protection et en indiquant s’il faut activer ou non la trace de la barrière de protection dans l’en-tête d’une demande d’invocation de modèle.
Choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :
Pour voir des exemples d’utilisation de barrière de protection lors de l’achèvement d’une discussion OpenAI, choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :
Inférence par lots vous permet d’exécuter l’inférence de modèle de manière asynchrone à l’aide de plusieurs invites. Pour exécuter l’inférence par lots avec un modèle OpenAI, procédez comme suit :
-
Créez un fichier JSONL et remplissez-le avec au moins le nombre minimum d’objets JSON, séparés chacun par une nouvelle ligne. Chaque objet
modelInputdoit être conforme au format du corps de la demande OpenAI create chat completion. Voici un exemple des deux premières lignes d’un fichier JSONL contenant les corps de requête pour OpenAI. { "recordId": "RECORD1", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "Can you generate a question with a factual answer?" } ], "max_completion_tokens": 1000 } } { "recordId": "RECORD2", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "What is the weather like today?" } ], "max_completion_tokens": 1000 } } ...Note
Le champ
modelest facultatif, car le service d’inférence par lots l’insérera pour vous en fonction de l’en-tête si vous l’omettez.Vérifiez que votre fichier JSONL est conforme aux quotas d’inférence par lots, comme indiqué dans Mise en forme et chargement des données d’inférence par lots.
-
Chargement du fichier image sur un compartiment Amazon S3.
-
Envoyez une CreateModelInvocationJobdemande avec un point de terminaison du plan de contrôle Amazon Bedrock avec le compartiment S3 de l'étape précédente spécifiée dans le
inputDataConfigchamp et le OpenAI modèle spécifié dans lemodelIdchamp.
Pour un exemple de end-to-end code, voirExemple de code pour l’inférence par lots. Remplacez par des configurations appropriées pour les modèles OpenAI.