Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Aufrufen Ihres importierten Modells
Der Modellimportjob kann mehrere Minuten dauern, bis Ihr Modell importiert wird, nachdem Sie die CreateModelImportJobAnfrage gesendet haben. Sie können den Status Ihres Importauftrags in der Konsole überprüfen oder indem Sie den GetModelImportJobVorgang aufrufen und das Status Feld in der Antwort überprüfen. Der Auftrag ist abgeschlossen, wenn der Status für das Modell Abgeschlossen lautet.
Nachdem Ihr importiertes Modell in Amazon Bedrock verfügbar ist, können Sie das Modell mit On-Demand-Durchsatz verwenden, indem Sie Anfragen senden InvokeModeloder InvokeModelWithResponseStreamAnfragen zum Durchführen von Inferenzaufrufen an das Modell senden. Weitere Informationen finden Sie unter Senden Sie eine einzelne Aufforderung mit InvokeModel.
Um mithilfe des Nachrichtenformats eine Schnittstelle zu Ihrem importierten Modell herzustellen, können Sie Converse oder Operations aufrufen. ConverseStream Weitere Informationen finden Sie unter Verwenden der Converse-API.
Anmerkung
Die Converse-API wird für Qwen2.5, Qwen2-VL, Qwen2.5-VL und andere Modelle nicht unterstützt. GPT-OSS
Verbesserte API-Unterstützung: Mehrere API-Formate
Ab dem 17. November 2025 unterstützt Amazon Bedrock Custom Model Import umfassende OpenAI-kompatible API-Formate und bietet so Flexibilität bei der Integration und Bereitstellung Ihrer benutzerdefinierten Modelle. Alle Modelle, die nach dem 11. November 2025 importiert wurden, profitieren automatisch von diesen erweiterten Funktionen, ohne dass eine zusätzliche Konfiguration erforderlich ist.
Der benutzerdefinierte Modellimport unterstützt jetzt drei API-Formate:
BedrockCompletion (Text) — Kompatibel mit aktuellen Bedrock-Workflows
Open AICompletion (Text) - OpenAI Completions Schema-Kompatibilität
Open AIChat Completion (Text und Bilder) — Vollständige Kompatibilität mit Konversationsschemas
Zu diesen erweiterten Funktionen gehören strukturierte Ausgaben zur Durchsetzung von JSON-Schemas und -Mustern, erweiterte Bildverarbeitungsunterstützung mit Verarbeitung mehrerer Bilder, Log-Wahrscheinlichkeiten für Erkenntnisse zur Modellsicherheit und Funktionen zum Aufrufen von Tools für Modelle. GPT-OSS
Eine ausführliche API-Referenzdokumentation finden Sie in der offiziellen OpenAI-Dokumentation:
Fertigstellung: OpenAI Completions API
ChatCompletion: OpenAI Chat-API
Beispiele für API-Formate
Die folgenden Beispiele zeigen, wie Sie jedes der vier unterstützten API-Formate mit Ihren importierten Modellen verwenden können.
Sie benötigen den Modell-ARN, um Inferenzaufrufe für Ihr neu importiertes Modell durchzuführen. Nach erfolgreichem Abschluss des Importjobs und nachdem Ihr importiertes Modell aktiv ist, können Sie den Modell-ARN Ihres importierten Modells in der Konsole oder durch Senden einer ListImportedModelsAnfrage abrufen.
Wenn Sie Ihr importiertes Modell mit InvokeModel oder InvokeModelWithStream aufrufen, wird Ihre Anfrage innerhalb von 5 Minuten bedient; andernfalls erhalten Sie möglicherweise ModelNotReadyException. Um das zu verstehen ModelNotReadyException, folgen Sie den Schritten in diesem nächsten Abschnitt zur Handhabung ModelNotreadyException.
Häufig gestellte Fragen
F: Welches API-Format sollte ich verwenden?
A: Für maximale Kompatibilität mit verschiedenen Formaten empfehlen wir die Verwendung der Formate Open AICompletion oder Open AIChat Completion SDKs, da sie OpenAI-kompatible Schemas bieten, die von verschiedenen Tools und Bibliotheken weitgehend unterstützt werden.
F: Unterstützt Bedrock Custom Model Import GPT-OSS auf Amazon die Converse-API?
A: Nein. GPT-OSSbasierte Importmodelle für benutzerdefinierte Modelle unterstützen die Converse API oder ConverseStream API nicht. Sie müssen die InvokeModelAPI mit OpenAI-kompatiblen Schemas verwenden, wenn Sie mit GPT-OSS basierten benutzerdefinierten Modellen arbeiten.
F: Welche Modelle unterstützen das Aufrufen von Tools?
A: GPT-OSS Maßgeschneiderte Modelle unterstützen Funktionen zum Aufrufen von Tools. Der Aufruf von Tools ermöglicht das Aufrufen von Funktionen für komplexe Workflows.
F: Was ist mit Modellen, die vor dem 11. November 2025 importiert wurden?
A: Modelle, die vor dem 11. November 2025 importiert wurden, funktionieren weiterhin unverändert mit ihren bestehenden API-Formaten und Funktionen.
F: Was ist mit generation_config.json OpenAI-basierten Modellen?
A: Es ist wichtig, dass Sie die richtige generation_config.json Datei angeben, wenn Sie OpenAI-basierte Modelle importieren, wie z. GPT-OSS Sie müssen die aktualisierte Konfigurationsdatei (aktualisiert am 13. August 2024) verwenden, die unter https://huggingface verfügbar ist. co/openai/gpt-oss-20b/blob/main/generation_config.json[200002, 199999, 200012]), wohingegen ältere Versionen nur zwei Token () enthielten. [200002, 199999] Die Verwendung einer veralteten generation_config.json Datei führt zu Laufzeitfehlern beim Modellaufruf. Diese Datei ist für das korrekte Modellverhalten unerlässlich und muss in Ihren OpenAI-basierten Modellimporten enthalten sein.
Handhabung ModelNotReadyException
Der benutzerdefinierte Modellimport für Amazon Bedrock optimiert die Hardwarenutzung, indem die Modelle entfernt werden, die nicht aktiv sind. Wenn Sie versuchen, ein Modell aufzurufen, das entfernt wurde, erhalten Sie eine ModelNotReadyException. Nachdem das Modell entfernt wurde und Sie das Modell zum ersten Mal aufrufen, beginnt der benutzerdefinierte Modellimport mit der Wiederherstellung des Modells. Die Wiederherstellungszeit hängt von der Größe der On-Demand-Flotte und der Modellgröße ab.
Wenn Ihre InvokeModel- oder InvokeModelWithStream-Anfrage ModelNotReadyException zurückgibt, folgen Sie den Schritten zur Ausnahmenbehandlung.
-
Konfigurieren von Wiederholungsversuchen
Standardmäßig wird Ihre Anforderung automatisch mit exponentiellem Backoff wiederholt. Sie können die maximale Anzahl an Wiederholungen konfigurieren.
Das folgende Codebeispiel zeigt, wie Sie die Wiederholungsversuche konfigurieren. Ersetzen Sie
${region-name}${model-arn}, und10durch Ihre Region, Modell-ARN und maximale Versuche.import json import boto3 from botocore.config import Config REGION_NAME =${region-name}MODEL_ID= '${model-arn}' config = Config( retries={ 'total_max_attempts':10, //customizable 'mode': 'standard' } ) message = "Hello" session = boto3.session.Session() br_runtime = session.client(service_name = 'bedrock-runtime', region_name=REGION_NAME, config=config) try: invoke_response = br_runtime.invoke_model(modelId=MODEL_ID, body=json.dumps({'prompt': message}), accept="application/json", contentType="application/json") invoke_response["body"] = json.loads(invoke_response["body"].read().decode("utf-8")) print(json.dumps(invoke_response, indent=4)) except Exception as e: print(e) print(e.__repr__()) -
Überwachen Sie die Antwortcodes bei Wiederholungsversuchen
Bei jedem erneuten Versuch wird der Modellwiederherstellungsprozess gestartet. Die Wiederherstellungszeit hängt von der Verfügbarkeit der On-Demand-Flotte und der Modellgröße ab. Überwachen Sie die Antwortcodes, während der Wiederherstellungsprozess läuft.
Wenn die Wiederholungsversuche immer wieder fehlschlagen, fahren Sie mit den nächsten Schritten fort.
-
So stellen Sie sicher, dass das Modell erfolgreich importiert wurde
Sie können überprüfen, ob das Modell erfolgreich importiert wurde, indem Sie den Status Ihres Importauftrags in der Konsole überprüfen oder den GetModelImportJobVorgang aufrufen. Prüfen Sie das
Status-Feld in der Antwort. Der Importauftrag ist erfolgreich, wenn der Status für das Modell Abgeschlossen lautet. -
Wenden Sie sich Support für weitere Untersuchungen an
Öffnen Sie ein Ticket mit Support Weitere Informationen finden Sie unter Supportanfragen erstellen.
Geben Sie relevante Details wie die Modell-ID und Zeitstempel im Support-Ticket ein.