Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Invocación del modelo importado
El trabajo de importación del modelo puede tardar varios minutos en importar el modelo después de enviar la CreateModelImportJobsolicitud. Puede comprobar el estado del trabajo de importación en la consola o llamando a la GetModelImportJoboperación y marcando el Status campo de la respuesta. El trabajo de importación está completo si el estado del modelo es Completado.
Una vez que el modelo importado esté disponible en Amazon Bedrock, podrá utilizar el modelo con rendimiento bajo demanda enviando InvokeModelo InvokeModelWithResponseStreamsolicitando llamadas de inferencia al modelo. Para obtener más información, consulte Envíe un único mensaje con InvokeModel.
Para interactuar con el modelo importado mediante el formato de mensajes, puede llamar a Converse o a Operations. ConverseStream Para obtener más información, consulte Mediante la API de Converse.
nota
La API de Converse no es compatible con Qwen2.5, Qwen2-VL, Qwen2.5-vL ni con los modelos. GPT-OSS
Soporte de API mejorado: múltiples formatos de API
A partir del 17 de noviembre de 2025, Amazon Bedrock Custom Model Import admite formatos API integrales compatibles con OpenAI, lo que proporciona flexibilidad a la hora de integrar e implementar sus modelos personalizados. Todos los modelos importados después del 11 de noviembre de 2025 se beneficiarán automáticamente de estas capacidades mejoradas sin necesidad de configuración adicional.
La importación de modelos personalizados ahora admite tres formatos de API:
BedrockCompletion (Texto): compatible con los flujos de trabajo actuales de Bedrock
Compatibilidad con Open AICompletion (Text): OpenAI Completions Schema
AIChatFinalización abierta (texto e imágenes): compatibilidad total con esquemas conversacionales
Estas capacidades mejoradas incluyen salidas estructuradas para aplicar esquemas y patrones de JSON, un mejor soporte de visión con procesamiento de múltiples imágenes, probabilidades de registro para obtener información sobre la confianza de los modelos y capacidades de uso de herramientas para los modelos. GPT-OSS
Para obtener documentación de referencia detallada sobre la API, consulte la documentación oficial de OpenAI:
Finalización: API de terminaciones de OpenAI
ChatCompletion: API de chat OpenAI
Ejemplos de formatos de API
Los siguientes ejemplos muestran cómo utilizar cada uno de los cuatro formatos de API compatibles con los modelos importados.
Necesitará el ARN del modelo para realizar llamadas de inferencia al modelo que acaba de importar. Tras completar correctamente el trabajo de importación y una vez que el modelo importado esté activo, puede obtener el ARN del modelo importado en la consola o enviando una ListImportedModelssolicitud.
Cuando invoca su modelo importado utilizando InvokeModel o InvokeModelWithStream, su solicitud se entrega en cinco minutos o podría recibir una excepción ModelNotReadyException. Para entenderlo ModelNotReadyException, siga los pasos de manipulación ModelNotreadyException que se indican en la siguiente sección.
Preguntas frecuentes
P: ¿Qué formato de API debo usar?
R: Para obtener la máxima compatibilidad con varios formatos SDKs, recomendamos utilizar los formatos Open AICompletion o Open AIChat Completion, ya que proporcionan esquemas compatibles con OpenAI que son ampliamente compatibles con diferentes herramientas y bibliotecas.
P: ¿La importación de modelos personalizados GPT-OSS en Amazon Bedrock es compatible con la API de Converse?
R: No. GPT-OSSlos modelos de importación basados en modelos personalizados no son compatibles con la API o ConverseStream la API de Converse. Debe utilizar la InvokeModelAPI con esquemas compatibles con OpenAI cuando trabaje con GPT-OSS modelos personalizados basados.
P: ¿Qué modelos admiten la función de llamadas a herramientas?
R: Los modelos personalizados GPT-OSS basados en herramientas admiten las capacidades de llamada a las herramientas. La llamada a herramientas permite realizar llamadas a funciones para flujos de trabajo complejos.
P: ¿Qué pasa con los modelos importados antes del 11 de noviembre de 2025?
R: Los modelos importados antes del 11 de noviembre de 2025 siguen funcionando tal cual con sus capacidades y formatos de API actuales.
P: ¿Qué pasa con generation_config.json los modelos basados en OpenAI?
R: Es fundamental que incluya el generation_config.json archivo correcto al importar modelos basados en OpenAI, como. GPT-OSS Debe utilizar el archivo de configuración actualizado (actualizado el 13 de agosto de 2024) disponible en https://huggingface. co/openai/gpt-oss-20b/blob/main/generation_config.json[200002, 199999, 200012]), mientras que las versiones anteriores solo incluían dos tokens (). [200002, 199999] El uso de un generation_config.json archivo desactualizado provocará errores de tiempo de ejecución durante la invocación del modelo. Este archivo es esencial para el correcto comportamiento del modelo y debe incluirse en las importaciones de modelos basadas en OpenAI.
Manipulación ModelNotReadyException
Importación de modelos personalizados de Amazon Bedrock optimiza la utilización del hardware al eliminar los modelos que no están activos. Si intenta invocar un modelo que se ha eliminado, recibirá una excepción ModelNotReadyException. Una vez eliminado el modelo e invocado el modelo por primera vez, Importación de modelos personalizados empezará a restaurar el modelo. El tiempo de restauración depende del tamaño de la flota bajo demanda y del tamaño del modelo.
Si su solicitud InvokeModel o InvokeModelWithStream devuelve ModelNotReadyException, siga los pasos para gestionar la excepción.
-
Configure los reintentos.
De forma predeterminada, la solicitud se reintenta automáticamente con un retroceso exponencial. Puede configurar el número máximo de reintentos.
En el siguiente ejemplo se muestra cómo configurar el reintento. Sustituya
${region-name}y10por su región, el ARN del modelo y el número máximo de intentos.${model-arn}import json import boto3 from botocore.config import Config REGION_NAME =${region-name}MODEL_ID= '${model-arn}' config = Config( retries={ 'total_max_attempts':10, //customizable 'mode': 'standard' } ) message = "Hello" session = boto3.session.Session() br_runtime = session.client(service_name = 'bedrock-runtime', region_name=REGION_NAME, config=config) try: invoke_response = br_runtime.invoke_model(modelId=MODEL_ID, body=json.dumps({'prompt': message}), accept="application/json", contentType="application/json") invoke_response["body"] = json.loads(invoke_response["body"].read().decode("utf-8")) print(json.dumps(invoke_response, indent=4)) except Exception as e: print(e) print(e.__repr__()) -
Supervise los códigos de respuesta durante los reintentos
Cada reintento inicia el proceso de restauración del modelo. El tiempo de restauración depende del tamaño de la flota bajo demanda y del modelo. Supervise los códigos de respuesta mientras se lleva a cabo el proceso de restauración.
Si los reintentos fallan de manera constante, continúe con los siguientes pasos.
-
Compruebe que el modelo se ha importado correctamente
Puede comprobar si el modelo se importó correctamente comprobando el estado del trabajo de importación en la consola o llamando a la GetModelImportJoboperación. Consulte el campo
Statusde la respuesta. El trabajo de importación se ha realizado correctamente si el estado del modelo es Completado. -
Póngase en contacto con nosotros Soporte para seguir investigando
Abra un ticket con Soporte Para obtener más información, consulte Creación de casos de soporte.
Incluya los detalles pertinentes, como el ID del modelo y las marcas horarias, en el ticket de soporte.