Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Invocare un modello importato
Il processo di importazione del modello può richiedere diversi minuti per importare il modello dopo l'invio della CreateModelImportJobrichiesta. Puoi controllare lo stato del tuo processo di importazione nella console o chiamando l'GetModelImportJoboperazione e controllando il Status campo nella risposta. Il processo di importazione è completo se lo stato del modello è Completo.
Dopo che il modello importato è disponibile in Amazon Bedrock, puoi utilizzare il modello con throughput on demand inviando InvokeModelo InvokeModelWithResponseStreamrichiedendo di effettuare chiamate di inferenza al modello. Per ulteriori informazioni, consulta Invia una sola richiesta con InvokeModel.
Per interfacciarti con il modello importato utilizzando il formato dei messaggi, puoi chiamare Converse o Operations. ConverseStream Per ulteriori informazioni, consulta Utilizzo dell’API Converse.
Nota
L'API Converse non è supportata per Qwen2.5, Qwen2-VL, QWen2.5-VL e i modelli. GPT-OSS
Supporto API avanzato: più formati API
A partire dal 17 novembre 2025, Amazon Bedrock Custom Model Import supporta formati API completi compatibili con OpenAI, offrendo flessibilità nel modo in cui integri e distribuisci i tuoi modelli personalizzati. Tutti i modelli importati dopo l'11 novembre 2025 trarranno automaticamente vantaggio da queste funzionalità avanzate senza bisogno di configurazioni aggiuntive.
Custom Model Import ora supporta tre formati API:
BedrockCompletion (Testo) - Compatibile con gli attuali flussi di lavoro Bedrock
Open AICompletion (Text) - Compatibilità dello schema OpenAI Completions
Open AIChat Completion (testo e immagini) - Piena compatibilità con lo schema conversazionale
Queste funzionalità avanzate includono output strutturati per l'applicazione di schemi e pattern JSON, supporto visivo avanzato con elaborazione di più immagini, probabilità di registro per informazioni sulla fiducia dei modelli e funzionalità di richiamo degli strumenti per i modelli. GPT-OSS
Per una documentazione di riferimento dettagliata sulle API, consulta la documentazione ufficiale di OpenAI:
Completamento: API OpenAI
Completions ChatCompletion: API di chat OpenAI
Esempi di formati API
Gli esempi seguenti mostrano come utilizzare ciascuno dei quattro formati API supportati con i modelli importati.
Hai bisogno dell’ARN del modello per effettuare chiamate di inferenza al nuovo modello importato. Dopo il completamento con successo del processo di importazione e dopo che il modello importato è attivo, è possibile ottenere l'ARN del modello importato nella console o inviando una ListImportedModelsrichiesta.
Quando invochi il modello importato utilizzando InvokeModel o InvokeModelWithStream, la tua richiesta viene soddisfatta entro 5 minuti o potresti ricevere ModelNotReadyException. Per comprenderlo ModelNotReadyException, seguite i passaggi di questa sezione successiva per la gestione ModelNotreadyException.
Domande frequenti
D: Quale formato API devo usare?
R: Per la massima compatibilità con vari formati SDKs, consigliamo di utilizzare i formati Open AICompletion o Open AIChat Completion in quanto forniscono schemi compatibili con OpenAI ampiamente supportati da diversi strumenti e librerie.
D: GPT-OSS Su Amazon Bedrock Custom Model Import supporta l'API Converse?
R: No. GPT-OSSi modelli di importazione di modelli personalizzati basati su modelli non supportano l'API o ConverseStream l'API di Converse. È necessario utilizzare l'InvokeModelAPI con schemi compatibili con OpenAI quando si lavora con GPT-OSS modelli personalizzati basati.
D: Quali modelli supportano la chiamata agli strumenti?
R: i modelli personalizzati GPT-OSS basati su di essi supportano le funzionalità di chiamata degli strumenti. La chiamata agli strumenti consente la chiamata di funzioni per flussi di lavoro complessi.
D: Che dire dei modelli importati prima dell'11 novembre 2025?
R: I modelli importati prima dell'11 novembre 2025 continuano a funzionare così come sono con i formati e le funzionalità API esistenti.
D: Che dire dei modelli basati su generation_config.json OpenAI?
R: È fondamentale includere il generation_config.json file corretto durante l'importazione di modelli basati su OpenAI come. GPT-OSS È necessario utilizzare il file di configurazione aggiornato (aggiornato il 13 agosto 2024) disponibile all'indirizzo https://huggingface. co/openai/gpt-oss-20b/blob/main/generation_config.json[200002, 199999, 200012]), mentre le versioni precedenti includevano solo due token (). [200002, 199999] L'utilizzo di un generation_config.json file obsoleto causerà errori di runtime durante l'invocazione del modello. Questo file è essenziale per il corretto comportamento del modello e deve essere incluso nelle importazioni di modelli basate su OpenAI.
Manipolazione ModelNotReadyException
Amazon Bedrock Custom Model Import ottimizza l’utilizzo dell’hardware rimuovendo i modelli non attivi. Se provi a invocare un modello rimosso, ricevi ModelNotReadyException. Dopo aver rimosso il modello e invocato il modello per la prima volta, Custom Model Import inizia a ripristinarlo. Il tempo di ripristino dipende dalle dimensioni del parco on demand e dalle dimensioni del modello.
Se la tua richiesta InvokeModel o InvokeModelWithStream restituisce ModelNotReadyException, segui la procedura per gestire l’eccezione.
-
Configurare nuovi tentativi
Per impostazione predefinita, la richiesta viene ritentata automaticamente con un backoff esponenziale. È possibile configurare il numero massimo di tentativi.
Il codice di esempio seguente mostra come configurare i nuovi tentativi. Sostituisci
${region-name}${model-arn}, e10con la tua regione, l'ARN del modello e il numero massimo di tentativi.import json import boto3 from botocore.config import Config REGION_NAME =${region-name}MODEL_ID= '${model-arn}' config = Config( retries={ 'total_max_attempts':10, //customizable 'mode': 'standard' } ) message = "Hello" session = boto3.session.Session() br_runtime = session.client(service_name = 'bedrock-runtime', region_name=REGION_NAME, config=config) try: invoke_response = br_runtime.invoke_model(modelId=MODEL_ID, body=json.dumps({'prompt': message}), accept="application/json", contentType="application/json") invoke_response["body"] = json.loads(invoke_response["body"].read().decode("utf-8")) print(json.dumps(invoke_response, indent=4)) except Exception as e: print(e) print(e.__repr__()) -
Monitorare i codici di risposta durante i nuovi tentativi
Ogni nuovo tentativo avvia il processo di ripristino del modello. Il tempo di ripristino dipende dalla disponibilità del parco on demand e dalle dimensioni del modello. Monitora i codici di risposta durante il processo di ripristino.
Se i nuovi tentativi hanno costantemente esito negativo, continua con le fasi successive.
-
Verificare che il modello sia stato importato
È possibile verificare se il modello è stato importato correttamente controllando lo stato del processo di importazione nella console o chiamando l'GetModelImportJoboperazione. Controlla il campo
Statusnella risposta. Il processo di importazione è riuscito se lo stato del modello è Completo. -
Contattateci Supporto per ulteriori indagini
Apri un ticket con Supporto Per ulteriori informazioni, consulta Creazione di casi di supporto.
Includi dettagli pertinenti come l’ID modello e i timestamp nel ticket di supporto.