Ausführen beispielhafter Anforderungen in der Amazon-Bedrock-API mit dem AWS Command Line Interface - Amazon Bedrock

Ausführen beispielhafter Anforderungen in der Amazon-Bedrock-API mit dem AWS Command Line Interface

Dieser Abschnitt führt Sie durch das Ausprobieren einiger gängiger Operationen in Amazon Bedrock unter Verwendung des AWS Command Line Interface, um zu testen, ob Ihre Berechtigungen und Authentifizierung richtig konfiguriert sind. Bevor Sie die folgenden Beispiele ausführen, sollten Sie sich vergewissern, dass Sie die folgenden Voraussetzungen erfüllt haben:

Voraussetzungen

Testen Sie, ob Ihre Berechtigungen für Amazon Bedrock ordnungsgemäß konfiguriert sind, indem Sie einen Benutzer oder eine Rolle verwenden, den bzw. die Sie mit den richtigen Berechtigungen konfiguriert haben.

Auflisten der Basismodelle, die Amazon Bedrock zu bieten hat

Im folgenden Beispiel wird die Operation ListFoundationModels mit dem AWS CLI ausgeführt. ListFoundationModels listet die Basismodelle (FMs) auf, die in Amazon Bedrock in Ihrer Region verfügbar sind. Führen Sie den folgenden Befehl in einem Terminal aus:

aws bedrock list-foundation-models

Wenn der Befehl erfolgreich ist, gibt die Antwort eine Liste der Basismodelle zurück, die in Amazon Bedrock verfügbar sind.

Senden eines Text-Prompts an ein Modell und Generieren einer Textantwort mit InvokeModel

Im folgenden Beispiel wird die Operation InvokeModel mit dem AWS CLI ausgeführt. InvokeModel ermöglicht es Ihnen, einen Prompt zum Generieren einer Modellantwort zu senden. Führen Sie den folgenden Befehl in einem Terminal aus:

aws bedrock-runtime invoke-model \ --model-id amazon.titan-text-express-v1 \ --body '{"inputText": "Describe the purpose of a \"hello world\" program in one line.", "textGenerationConfig" : {"maxTokenCount": 512, "temperature": 0.5, "topP": 0.9}}' \ --cli-binary-format raw-in-base64-out \ invoke-model-output-text.txt

Wenn der Befehl erfolgreich ist, wird die vom Modell generierte Antwort in die Datei invoke-model-output-text.txt geschrieben. Die Textantwort wird zusammen mit den zugehörigen Informationen im Feld outputText zurückgegeben.

Senden eines Text-Prompts an ein Modell und Generieren einer Textantwort mit Converse

Im folgenden Beispiel wird die Operation Converse mit dem AWS CLI ausgeführt. Converse ermöglicht es Ihnen, einen Prompt zum Generieren einer Modellantwort zu senden. Wir empfehlen, die Operation Converse anstatt InvokeModel zu verwenden, sofern dies unterstützt wird, da sie die Inferenzanforderung für alle Amazon-Bedrock-Modelle vereinheitlicht und die Verwaltung von Multi-Turn-Konversationen vereinfacht. Führen Sie den folgenden Befehl in einem Terminal aus:

aws bedrock-runtime converse \ --model-id amazon.titan-text-express-v1 \ --messages '[{"role": "user", "content": [{"text": "Describe the purpose of a \"hello world\" program in one line."}]}]' \ --inference-config '{"maxTokens": 512, "temperature": 0.5, "topP": 0.9}'

Wenn der Befehl erfolgreich ist, wird die vom Modell generierte Antwort zusammen mit den zugehörigen Informationen im Feld text zurückgegeben.