Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Nachrichten-API von AnthropicClaude
Dieser Abschnitt enthält Inferenzparameter und ein Codebeispiel für die Verwendung der Nachrichten-API Anthropic Claude.
Themen
Übersicht über die Nachrichten-API von Anthropic Claude
Sie können die Nachrichten-API verwenden, um Chat-Bots oder virtuelle Assistentenanwendungen zu erstellen. Die API verwaltet den Konversationsaustausch zwischen einem Benutzer und einem Anthropic-Claude-Modell (Assistent).
Tipp
In diesem Thema wird gezeigt, wie die Anthropic Claude Nachrichten-API mit den Basisinferenzoperationen (InvokeModeloder InvokeModelWithResponseStream) verwendet wird. Wir empfehlen jedoch, die Converse-API zu verwenden, um Nachrichten in Ihrer Anwendung zu implementieren. Die Converse-API bietet einen einheitlichen Satz von Parametern, die für alle Modelle funktionieren, die Nachrichten unterstützen. Weitere Informationen finden Sie unter Führen einer Konversation mit den Converse-API-Operationen.
Anthropic trainiert Claude-Modelle so, dass sie abwechselnd als Benutzer und als Assistent kommunizieren. Wenn Sie eine neue Nachricht erstellen, geben Sie mit dem Nachrichtenparameter die vorherigen Gesprächsrunden an. Das Modell generiert dann die nächste Nachricht in der Konversation.
Jede Eingabenachricht muss ein Objekt mit einer Rolle und einem Inhalt sein. Sie können eine einzelne Benutzerrollennachricht angeben oder mehrere Benutzer- und Assistentennachrichten einbeziehen.
Wenn Sie die Technik verwenden, die Antwort von Claude vorab auszufüllen (indem Sie den Anfang von Claudes Antwort mithilfe einer endgültigen Nachricht der Assistentenrolle ausfüllen), antwortet Claude und macht dort weiter, wo Sie aufgehört haben. Bei dieser Technik gibt Claude nach wie vor eine Antwort mit der Assistentenrolle zurück.
Wenn für die endgültige Nachricht die Assistentenrolle verwendet wird, wird der Inhalt der Antwort sofort mit dem Inhalt dieser Nachricht fortgesetzt. Sie können dies verwenden, um einen Teil der Antwort des Modells einzuschränken.
Beispiel mit einer einzigen Benutzernachricht:
[{"role": "user", "content": "Hello, Claude"}]
Beispiel mit mehreren Konversationsrunden:
[ {"role": "user", "content": "Hello there."}, {"role": "assistant", "content": "Hi, I'm Claude. How can I help you?"}, {"role": "user", "content": "Can you explain LLMs in plain English?"}, ]
Beispiel mit einer teilweise ausgefüllten Antwort von Claude:
[ {"role": "user", "content": "Please describe yourself using only JSON"}, {"role": "assistant", "content": "Here is my JSON description:\n{"}, ]
Der Inhalt jeder Eingabenachricht kann entweder eine einzelne Zeichenfolge oder ein Array von Inhaltsblöcken sein, wobei jeder Block einen bestimmten Typ hat. Die Verwendung einer Zeichenfolge ist eine Abkürzung für ein Array aus einem Inhaltsblock vom Typ „text“. Die folgenden Eingabenachrichten sind gleichwertig:
{"role": "user", "content": "Hello, Claude"}
{"role": "user", "content": [{"type": "text", "text": "Hello, Claude"}]}
Informationen zum Erstellen von Prompts für Anthropic-Claude-Modelle finden Sie unter Einführung in das Prompting
Wichtig
Der Timeout-Zeitraum für Inferenzaufrufe an Modelle von Anthropic Claude 3.7 Sonnet und Claude 4 beträgt 60 Minuten. Standardmäßig wird bei AWS SDK-Clients das Timeout nach 1 Minute erreicht. Wir empfehlen, dass Sie das Lese-Timeout Ihres AWS SDK-Clients auf mindestens 60 Minuten erhöhen. Ändern Sie beispielsweise im AWS Python Botocore SDK den Wert des Felds read_timeout in botocore.config
System-Prompts
Sie können der Anfrage auch einen System-Prompt hinzufügen. Mit einem System-Prompt können Sie Anthropic Claude Kontextinformationen und Anweisungen bereitstellen, wie etwa die Angabe eines bestimmten Ziels oder einer bestimmten Rolle. Geben Sie im system-Feld einen System-Prompt an, wie im folgenden Beispiel dargestellt.
"system": "You are Claude, an AI assistant created by Anthropic to be helpful, harmless, and honest. Your goal is to provide informative and substantive responses to queries while avoiding potential harms."
Weitere Informationen finden Sie unter System-Prompts
Multimodale Prompts
Ein multimodaler Prompt kombiniert mehrere Modalitäten (Bilder und Text) in einem einzigen Prompt. Sie geben die Modalitäten im Eingabefeld content an. Das folgende Beispiel zeigt, wie Sie Anthropic Claude dazu auffordern können, den Inhalt eines bereitgestellten Bildes zu beschreiben. Einen Beispielcode finden Sie unter Multimodale Code-Beispiele.
{ "anthropic_version": "bedrock-2023-05-31", "max_tokens": 1024, "messages": [ { "role": "user", "content": [ { "type": "image", "source": { "type": "base64", "media_type": "image/jpeg", "data": "iVBORw..." } }, { "type": "text", "text": "What's in these images?" } ] } ] }
Anmerkung
Für das Feld content gelten die folgenden Einschränkungen:
-
Sie können bis zu 20 Bilder aufnehmen. Größe, Höhe und Breite jedes Bilds dürfen 3,75 MB, 8 000 Pixel bzw. 8 000 Pixel nicht überschreiten.
-
Sie können bis zu fünf Dokumente einschließen. Die Größe jedes Dokuments darf nicht mehr als 4,5 MB betragen.
-
Es können nur Bilder und Dokumente eingeschlossen werden, wenn
roleden Wertuseraufweist.
Jedes Bild, das Sie in eine Anfrage aufnehmen, wird auf Ihre Token-Nutzung angerechnet. Weitere Informationen finden Sie unter Kosten für Bilder