As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Modelos da OpenAI
A OpenAI oferece os seguintes modelos de peso aberto:
-
gpt-oss-20b
: um modelo menor otimizado para menor latência e casos de uso locais ou especializados. -
gpt-oss-120b
: um modelo maior otimizado para casos de uso de produção e uso geral ou de alto raciocínio.
A seguinte tabela a seguir resume informações sobre os modelos:
| Informações | gpt-oss-20b | gpt-oss-120b |
|---|---|---|
| Data de lançamento | 5 de agosto de 2025 | 5 de agosto de 2025 |
| ID do modelo | openai.gpt-oss-20b-1:0 | openai.gpt-oss-120b-1:0 |
| ID do produto | N/D | N/D |
| Modalidades de entrada aceitas | Texto | Texto |
| Modalidades de saída aceitas | Texto | Texto |
| Janela de contexto | 128.000 | 128.000 |
Os modelos da OpenAI são compatíveis com os seguintes recursos:
-
Invocação de modelos com as seguintes operações:
-
Aplicação de barreiras de proteção por meio do uso de cabeçalhos nas operações de invocação de modelo.
Corpo da solicitação da OpenAI
Para ter informações sobre os parâmetros no corpo da solicitação e as respectivas descrições, consulte Create chat completion
Use os campos do corpo da solicitação das seguintes maneiras:
-
Em uma solicitação InvokeModelou de conclusão do OpenAI Chat, inclua os campos no corpo da solicitação.
-
Em uma solicitação Converse, faça o seguinte:
-
Mapeie as
messagesda seguinte maneira:-
Para cada mensagem cuja função é
developer, adicionecontenta SystemContentBlocknasystemmatriz. -
Para cada mensagem cuja função é
userouassistant, adicionecontenta a ContentBlocknocontentcampo e especifique arolenorolecampo de uma Mensagem namessagesmatriz.
-
-
Associe os valores dos seguintes campos aos campos correspondentes no objeto
inferenceConfig:OpenAI field Campo Converse max_completion_tokens maxTokens parar stopSequences temperatura temperatura top_p topP -
Inclua qualquer outro campo no objeto
additionalModelRequestFields.
-
Considerações ao criar o corpo da solicitação
-
Os modelos da OpenAI permitem somente entrada e saída de texto.
-
O valor no campo
modeldeve corresponder ao do cabeçalho. Você pode omitir esse campo para permitir que ele seja preenchido automaticamente com o mesmo valor do cabeçalho. -
O valor no campo
streamdeve corresponder à operação de API que você usa. Você pode omitir esse campo para permitir que ele seja preenchido automaticamente com o valor correto.-
Se você usar InvokeModel, o
streamvalor deve serfalse.
-
Corpo da resposta da OpenAI
O corpo da resposta dos modelos da OpenAI está em conformidade com o objeto de preenchimento de chat apresentado pela OpenAI. Para ter mais informações sobre os campos de resposta, consulte The chat completion object
nota
Se você usar InvokeModel, o raciocínio do modelo, circundado pelas tags <reasoning>, precederá o conteúdo do texto da resposta.
Exemplo de uso de modelos da OpenAI
Esta seção apresenta alguns exemplos de como usar os modelos da OpenAI.
Antes de testar estes exemplos, verifique se você atendeu a estes pré-requisitos:
-
Autenticação — Você pode se autenticar com suas AWS credenciais ou com uma chave de API Amazon Bedrock.
Configure suas AWS credenciais ou gere uma chave de API Amazon Bedrock para autenticar sua solicitação.
Para saber mais sobre como configurar suas AWS credenciais, consulte Acesso programático com credenciais de AWS segurança.
Para saber mais sobre as chaves de API do Amazon Bedrock e como gerá-las, consulte a seção Chaves de API no capítulo Build.
nota
Se você usar a API Chat Completions da OpenAI, só poderá se autenticar com uma chave de API do Amazon Bedrock.
-
Endpoint — Encontre o endpoint que corresponde à AWS região a ser usada nos endpoints e cotas do Amazon Bedrock Runtime. Se você usa um AWS SDK, talvez precise especificar apenas o código da região e não o endpoint inteiro ao configurar o cliente. Você deve usar um endpoint associado a uma região compatível com o modelo usado no exemplo.
-
Acesso ao modelo: solicite acesso a um modelo da OpenAI. Para obter mais informações, consulte Gerencie o acesso ao modelo usando SDK e CLI.
-
(Se o exemplo usar um SDK) Instale o SDK — Após a instalação, configure as credenciais padrão e uma região padrão. AWS Se você não configurar credenciais padrão ou uma região, precisará especificá-las explicitamente nos exemplos de código pertinentes. Para obter mais informações sobre provedores de credenciais padronizados, consulte Ferramentas AWS SDKs e provedores de credenciais padronizados.
nota
Se você usar o SDK da OpenAI, só poderá se autenticar com uma chave de API do Amazon Bedrock e deverá definir explicitamente o endpoint do Amazon Bedrock.
Expanda a seção do exemplo que você deseja ver:
Para ver exemplos de uso da API Create chat completion da OpenAI, escolha a guia correspondente ao método de sua preferência e siga as etapas:
Escolha a guia correspondente ao método de sua preferência e siga as etapas:
Ao usar a API Converse unificada, você precisa associar os campos de Create chat completion da OpenAI ao campo correspondente no corpo da solicitação de Converse.
Por exemplo, compare o corpo da solicitação de preenchimento de chat a seguir com o corpo da solicitação Converse correspondente:
Escolha a guia correspondente ao método de sua preferência e siga as etapas:
Aplique uma barreira de proteção ao executar a invocação do modelo especificando o ID da barreira de proteção, a versão e se deve ou não habilitar o rastreamento da barreira de proteção no cabeçalho de uma solicitação de invocação do modelo.
Escolha a guia correspondente ao método de sua preferência e siga as etapas:
Para ver exemplos de uso de barreiras de proteção com preenchimentos de chat da OpenAI, escolha a guia correspondente ao método de sua preferência e siga as etapas:
A inferência em lote permite executar a inferência do modelo de forma assíncrona com vários prompts. Para executar a inferência em lote com um modelo da OpenAI, faça o seguinte:
-
Crie um arquivo JSONL e preencha-o com pelo menos o número mínimo de objetos JSON, cada um separado por uma nova linha. Cada objeto
modelInputdeve corresponder ao formato do corpo da solicitação de preenchimento de chat da OpenAI. Veja a seguir um exemplo das duas primeiras linhas de um arquivo JSONL contendo corpos de solicitação para a OpenAI. { "recordId": "RECORD1", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "Can you generate a question with a factual answer?" } ], "max_completion_tokens": 1000 } } { "recordId": "RECORD2", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "What is the weather like today?" } ], "max_completion_tokens": 1000 } } ...nota
O campo
modelé opcional porque o serviço de inferência em lote o inserirá para você com base no cabeçalho, caso você o omita.Verifique se o arquivo JSONL está de acordo com as cotas de inferência em lote, conforme descrito em Formatar e carregar os dados de inferência.
-
Faça upload do arquivo para um bucket do Amazon S3.
-
Envie uma CreateModelInvocationJobsolicitação com um endpoint do plano de controle Amazon Bedrock com o bucket S3 da etapa anterior especificada no
inputDataConfigcampo e do OpenAI modelo especificado no campo.modelId
Para obter um exemplo de end-to-end código, consulteExemplo de código para inferência em lote. Substitua pelas configurações adequadas para os modelos da OpenAI.