Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
OpenAIModelos de
OpenAI ofrece los siguientes modelos de ponderación abierta:
-
gpt-oss-20b
: un modelo más pequeño optimizado para una latencia más baja y para casos de uso locales o especializados. -
gpt-oss-120b
: un modelo más grande optimizado para casos de uso de producción y de uso general o de alto razonamiento.
En la siguiente tabla se resume la información de estos modelos:
| Información | gpt-oss-20b | gpt-oss-120b |
|---|---|---|
| Fecha de lanzamiento de la nueva versión | 5 de agosto de 2025 | 5 de agosto de 2025 |
| ID del modelo | openai.gpt-oss-20b-1:0 | openai.gpt-oss-120b-1:0 |
| ID de producto | N/A | N/A |
| Modalidades de entrada admitidas | Texto | Texto |
| Modalidades de salida admitidas | Texto | Texto |
| Ventana de contexto | 128 000 | 128 000 |
Los modelos de OpenAI admiten las siguientes características:
-
Invocación del modelo con las siguientes operaciones:
-
Aplicación de barreras de protección mediante el uso de encabezados en las operaciones de invocación del modelo.
Temas
Cuerpo de la solicitud OpenAI
Para obtener información sobre los parámetros del cuerpo de la solicitud y sus descripciones, consulte Create chat completion
Utilice los campos del cuerpo de la solicitud de las siguientes maneras:
-
En una solicitud InvokeModel o Chat Completions de OpenAI, incluya los campos en el cuerpo de la solicitud.
-
En una solicitud Converse, haga lo siguiente:
-
Asigne el elemento
messagescomo se indica a continuación:-
Para cada mensaje cuyo rol sea
developer, añada al elementocontentun SystemContentBlock en la matrizsystem. -
Para cada mensaje cuyo rol sea
useroassistant, añada el elementocontenta un ContentBlock en el campocontenty especifique el elementoroleen el camporolede un mensaje en la matrizmessages.
-
-
Asigne los valores de los siguientes campos a los campos correspondientes del objeto
inferenceConfig:OpenAICampo de Campo Converse max_completion_tokens maxTokens parar stopSequences temperature temperature top_p topP -
Incluya todos los demás campos en el objeto
additionalModelRequestFields.
-
Consideraciones al crear el cuerpo de la solicitud
-
Los modelos de OpenAI solo admiten la entrada y salida de texto.
-
El valor del campo
modeldebe coincidir con el del encabezado. Puede omitir este campo para que se rellene automáticamente con el mismo valor que el encabezado. -
El valor del campo
streamdebe coincidir con la operación de API que utilice. Puede omitir este campo para que se rellene automáticamente con el valor correcto.-
Si usa InvokeModel, el valor de
streamdebe serfalse.
-
Cuerpo de la respuesta de OpenAI
El cuerpo de la respuesta de los modelos de OpenAI se ajusta al objeto de finalización del chat devuelto por OpenAI. Para obtener más información acerca de los campos de respuesta, consulte The chat completion object
nota
Si usa InvokeModel, el razonamiento del modelo, rodeado por las etiquetas <reasoning>, precede al contenido textual de la respuesta.
Ejemplo de uso de modelos de OpenAI
En esta sección se proporcionan algunos ejemplos de cómo utilizar los modelos de OpenAI.
Antes de probar estos ejemplos, asegúrese de haber satisfecho los requisitos previos:
-
Autenticación: puede autenticarse con sus credenciales de AWS o con una clave de API de Amazon Bedrock.
Configure sus credenciales de AWS o genere una clave de API de Amazon Bedrock para autenticar la solicitud.
Para obtener más información sobre cómo configurar sus credenciales de AWS, consulte Acceso programático con credenciales de seguridad de AWS.
Para obtener más información sobre las claves de API de Amazon Bedrock y cómo generarlas, consulte Generación de claves de API de Amazon Bedrock para autenticarse fácilmente en la API de Amazon Bedrock.
nota
Si utiliza la API Chat completions de OpenAI, solo puede autenticarse con una clave de API de Amazon Bedrock.
-
Punto de conexión: busque el punto de conexión que corresponda a la región de AWS que desea usar en Puntos de conexión y cuotas de Tiempo de ejecución de Amazon Bedrock. Si usa un SDK de AWS, es posible que solo necesite especificar el código de región y no todo el punto de conexión al configurar el cliente. Debe usar un punto de conexión asociado a una región compatible con el modelo utilizado en el ejemplo.
-
Acceso al modelo: solicite el acceso a un modelo de OpenAI. Para obtener más información, consulte Acceda a los modelos de bases Amazon Bedrock en AWS GovCloud (EE. UU.).
-
(Si el ejemplo usa un SDK) Instale el SDK: después de la instalación, configure las credenciales predeterminadas y una región de AWS predeterminada. Si no configura las credenciales predeterminadas o una región, tendrá que especificarlas de forma explícita en los ejemplos de código correspondientes. Para obtener más información sobre los proveedores de credenciales estandarizados, consulte Proveedores de credenciales estandarizados de SDK y herramientas de AWS.
nota
Si usa el SDK de OpenAI, solo puede autenticarse con una clave de API de Amazon Bedrock y debe configurar explícitamente el punto de conexión de Amazon Bedrock.
Amplíe la sección para ver el ejemplo que desee:
Para ver ejemplos del uso de la API Create chat completion de OpenAI, seleccione la pestaña correspondiente al método que prefiera y siga los pasos:
Elija la pestaña del método que prefiera y siga estos pasos:
Cuando utiliza la API unificada Converse, debe asignar los campos de Create chat completion de OpenAI a su campo correspondiente en el cuerpo de la solicitud de Converse.
Por ejemplo, compare el siguiente cuerpo de la solicitud de finalización del chat con el cuerpo de la solicitud de Converse correspondiente:
Elija la pestaña del método que prefiera y siga estos pasos:
Aplique una barrera de protección al ejecutar la invocación del modelo especificando el ID de la barrera de protección, la versión y si desea habilitar o no el rastreo de la barrera de protección en el encabezado de una solicitud de invocación de modelos.
Elija la pestaña del método que prefiera y siga estos pasos:
Para ver ejemplos del uso de barreras de protección con finalizaciones de chat de OpenAI, seleccione la pestaña correspondiente al método que prefiera y siga los pasos:
La inferencia en lotes le permite ejecutar la inferencia de modelos de forma asíncrona con varias peticiones. Para ejecutar la inferencia en lotes con un modelo de OpenAI, haga lo siguiente:
-
Cree un archivo JSONL y rellénelo con al menos el número mínimo de objetos JSON, cada uno de ellos separado por una nueva línea. Cada objeto
modelInputdebe ajustarse al formato del cuerpo de la solicitud de create chat completion de OpenAI. A continuación, se muestra un ejemplo de las dos primeras líneas de un archivo JSONL que contiene los cuerpos de las solicitudes de OpenAI. { "recordId": "RECORD1", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "Can you generate a question with a factual answer?" } ], "max_completion_tokens": 1000 } } { "recordId": "RECORD2", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "What is the weather like today?" } ], "max_completion_tokens": 1000 } } ...nota
El campo
modeles opcional porque el servicio de inferencia en lotes lo insertará automáticamente en función del encabezado si lo omite.Compruebe que el archivo JSONL cumpla las cuotas de inferencia en lotes que se indican en Formateo y carga de los datos de la inferencia por lotes.
-
Cargue el archivo en un bucket de Amazon S3.
-
Envíe una solicitud CreateModelInvocationJob con un punto de conexión del plano de control de Amazon Bedrock con el bucket de S3 del paso anterior especificado en el campo
inputDataConfigy el modelo de OpenAI especificado en el campomodelId.
Si desea obtener un ejemplo de código completo, consulte Ejemplos de código de inferencia en lotes. Sustitúyalo con las configuraciones adecuadas para los modelos de OpenAI.