Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Claude-Modelle von Anthropic
In diesem Abschnitt werden die Anforderungsparameter und Antwortfelder für Anthropic-Claude-Modelle beschrieben. Verwenden Sie diese Informationen, um Inferenzaufrufe an Anthropic Claude Modelle mit den Operationen InvokeModelund InvokeModelWithResponseStream(Streaming) durchzuführen. Dieser Abschnitt enthält auch Python-Codebeispiele, die zeigen, wie Anthropic-Claude-Modelle aufgerufen werden. Sie benötigen die Modell-ID für das Modell, um ein Modell in einer Inferenzoperation verwenden zu können. Informationen zum Abrufen der Modell-ID finden Sie unter Unterstützte Basismodelle in Amazon Bedrock. Einige Modelle funktionieren auch mit der Converse-API. Informationen darüber, ob die Converse-API ein bestimmtes Anthropic-Claude-Modell unterstützt, finden Sie unter Unterstützte Modelle und Modellfeatures. Weitere Codebeispiele finden Sie unter Codebeispiele für Amazon Bedrock mit AWS SDKs.
Basismodelle in Amazon Bedrock unterstützen Eingabe- und Ausgabemodalitäten, die von Modell zu Modell variieren. Informationen zu den Modalitäten, die von Anthropic-Claude-Modellen unterstützt werden, finden Sie unter Unterstützte Basismodelle in Amazon Bedrock. Informationen darüber, welche Amazon-Bedrock-Features Anthropic-Claude-Modelle unterstützen, finden Sie unter Unterstützte Basismodelle in Amazon Bedrock. Informationen darüber, in welchen AWS Regionen diese Anthropic Claude Modelle verfügbar sind, finden Sie unterUnterstützte Basismodelle in Amazon Bedrock.
Wenn Sie Inferenzaufrufe mit Anthropic-Claude-Modellen tätigen, schließen Sie einen Prompt für das Modell ein. Allgemeine Informationen zum Erstellen von Prompts für die Modelle, die von Amazon Bedrock unterstützt werden, finden Sie unter Prompt-Engineering-Konzepte. Für Anthropic Claude spezifische Informationen zu Prompts finden Sie im Handbuch zu Claude-Prompt-Engineering von Anthropic
Sie können Amazon Bedrock verwenden, um Inferenzanforderungen an Anthropic-Claude-API für Textvervollständigungen oder Nachrichten-API von AnthropicClaude zu senden.
Sie verwenden die Nachrichten-API, um Konversationsanwendungen zu erstellen, z. B. einen virtuellen Assistenten oder eine Coaching-Anwendung. Verwenden Sie die Textvervollständigungs-API für Single-Turn-Textgenerierungsanwendungen. Beispiele hierfür sind das Generieren von Text für einen Blogbeitrag oder das Zusammenfassen von Text, den ein Benutzer bereitstellt.
Anthropic-Claude-Modelle unterstützen die Verwendung von XML-Tags zur Strukturierung und Abgrenzung Ihrer Prompts. Sie können etwa Beispiele in Ihrem Prompt mit einem <examples>-Tag umgeben. Verwenden Sie aussagekräftige Tag-Namen, um optimale Ergebnisse zu erzielen. Weitere Informationen finden Sie unter Verwenden von XML-Tags
Anthropic-Claude-Modelle unterstützen die Verwendung von PDF-Dokumentenverarbeitung und Zitate. Zitate enthalten Verweise auf Informationen in dem Dokument, das vom Modell in einer Antwort verwendet wurde.
Anmerkung
Um Systemaufforderungen in Inferenzaufrufen verwenden zu können, müssen Sie Anthropic Claude Versionen der Version 2.1 oder höher verwenden.
Informationen zum Erstellen von System-Prompts finden Sie unter Zuweisen einer Rolle mit einem System-Prompt an Claude
Wir empfehlen, die Anzahl der Eingabe-Token im Feld prompt auf 180 000 zu beschränken, um Timeouts bei Anthropic Claude Version 2.1 zu vermeiden. Wir gehen davon aus, dass dieses Timeout-Problem bald behoben sein wird.
Füllen Sie im Inferenzaufruf das Feld body mit einem JSON-Objekt aus, das dem Typaufruf entspricht, den Sie durchführen möchten, Anthropic-Claude-API für Textvervollständigungen oder Nachrichten-API von AnthropicClaude.